制御タイプの実行モードとデータフロータイプの実行モードとの組み合わせによりタスクを並列に実行可能な複数の処理ユニットを有するシステム
专利摘要:
本発明はタスクを並列に実行可能な複数の処理ユニットと通信ネットワークとを備えるシステムに関する。処理ユニットは複数のユニットクラスタに編成され、各クラスタはローカルメモリを備えている。システムは各ユニットクラスタにタスクを静的に割り当てる手段を有し、この結果、アプリケーションの所与のタスクはアプリケーションの実行ごとに同じユニットクラスタで処理される。各ユニットクラスタは、処理ユニットのそれぞれにタスクを動的に割り当てるためのクラスタ管理手段と、ローカルメモリ内にタスクを実行するための空間を有し、結果として、アプリケーションの所与のタスクはアプリケーションの実行ごとに同じ処理ユニットで処理されなくてもよい。クラスタ管理手段は、タスクを管理するための手段と、処理ユニットを管理するための手段と、ローカルメモリを管理するための手段と、処理ユニットを伴う通信を管理するための手段とを備える。管理手段は一斉に互いに連携して動作する。 アプリケーション:集約的計算に対応する埋め込みシステム。 公开号:JP2011507085A 申请号:JP2010537453 申请日:2008-12-11 公开日:2011-03-03 发明作者:アラン、ミシェル;ヴァンルー、ニコラ;コレット、ティエリ;ダヴィッド、ヴァンサン;ダヴィッド、ラファエル;ブラン、フレデリック;ルイーズ、ステファン 申请人:コミシリア ア レネルジ アトミック エ オ エナジーズ オルタネティヴズ; IPC主号:G06F15-80
专利说明:
[0001] 本発明は効率的及び効果的な方法でタスクを並列に実行可能な複数の処理ユニットを備えるシステムに関する。本発明は、例えば、埋め込みシステムに関連する効率及び消費電力の制約条件で集約的な計算を必要とする全ての分野で適用される。] 背景技術 [0002] 半導体業界は、プロセッサのパフォーマンスを少なくとも個々のレベルでは大幅に高める確かな手段がもはやないという、当惑した状況に直面している。複数のプロセッサを使用しそれらを並列に動作させるシステムだけは、システムの計算能力を向上させるための手段としてまだ有望であるように思われる。実際、1960年代に実施された調査によれば、計算システムの効率に対する計算能力の比は、逐次システムに比べて並列システムの場合が潜在的にはるかに高くなるということである。ここで、特に最適化と効率を基本的に重要視する埋め込みシステムの分野において、並列システムがすぐに普及しなかった理由を把握するということが課題になる。一方で、技術的に、同じコンポーネント上に超並列構造体を統合するのは不可能であった(ただし、この種の並列性に合わせてアプリケーションを調整する際に簡単にプログラムできるSIMD(「単一命令複数データ」)構造体の場合は例外)。他方、並列システムは一般的にはプログラミング及び開発するのがかなり難しい。このことは特に、同じ処理要素の複製に基づき、同一及び均一なアクセス及び通信インターフェイスを有する対称システム(均一システムとも称する)の場合に当てはまる。しかし、オペレーションを処理するための複数の専用プロセッサと特定のインターフェイスを使用する非対称システム(異種システムとも呼ばれる)の場合は、ほとんどそのことは当てはまらない。非対称システムは、例えば、ビデオ又はネットワークチップタイプの従来の周辺装置において、長い時間をかけて普及してきたが、それでも、並列に配置するプロセッサの数についてはまだ制限がある。非対称システムのこの普及は一般に、処理制御レベルがそれほど複雑でないアプリケーションの分野で起きているものであること、即ち、リソースの異種性によって、処理オペレーションのマッピングの複雑性だけでなく、処理オペレーションのマッピングの柔軟性も制限されていることに注意されたい。しかしながら、埋め込みシステムにも専用の多重処理システムが登場している。携帯電話通信の分野では、単一のチップ上に配置された「マルチコア」が登場している。このマルチコアは、信号処理用のDSP(「デジタルシグナルプロセッサ」)、通常の処理オペレーション用のGPU(「汎用処理装置」)、及びアナログ入力/出力ブロックを含み得る。携帯用ステレオ又はマルチメディアプレーヤーの分野では、汎用プロセッサに加えて、オーディオ(「MPEG Audio Layer」、「Dolby D」、「DTS」)又はビデオ(「MPEG」、「H264」)に専用の復号コアが登場している。一方、対称並列システムは、プログラミングの処理が難しいこと、及びプログラムの微調整が困難であることなどの理由であまり開発されていない。一般に、このようなプログラミング及び微調整に関する問題は、アプリケーションの高まる複雑化により深刻なものとなっている。埋め込みシステムでは、これらの問題が、これまで以上に多くの機能を統合したいという要望によって、及び処理の対象となるデータ量の継続的な増大によっても深刻化している。例えば、携帯電話では、通信機能がマルチメディア機能、位置決め機能、又はゲームと関連付けられている。携帯電話では、これまで以上に大きな容量のビデオセンサ及びこれまで以上に高いスループットのコンバータを使用している。更に、集約的計算タスクが、制御によって支配されタスクと一緒に実行され、アプリケーションのこのような種々の要素間で活発な対話が行われる。] [0003] 本発明は更に、高い計算能力を提供する埋め込みシステムの分野に関する。マルチメディア、通信、又はリアルタイム処理システム等の分野での新しいアプリケーションは、消費される電力のレベル及び表面積の制御のためにこれまで以上の計算能力を求めている。前述したように、独立した方法で計算要素の処理能力を十分に高められない場合、ただ1つの現実的な解決策は計算要素を増やし、それらを並列に稼働させることである。このフレームワーク内では、新しい概念として並列システム・オン・チップが現在登場している。理論的に、並列システム・オン・チップでは、エッチング技術の進歩によって同じチップ上に統合可能になった追加のトランジスタを効率的に利用できる。埋め込みシステム用のプロセッサの極めて特殊なフレームワーク内でも、同じチップ上で実行コアの数を増やす傾向が非常に明確になっている。中期的に見れば、この傾向は、数十又は実際には数百の実行要素を備えたシステムの導入、さらに言えば当該システムの普及を表しているであろう。このようなシステムの中から、マルチプロセッサシステム・オン・チップを例にとる。このシステムは、通常、「マルチプロセッサ・システム・オン・チップ(Multi−Processor System on Chip)」を表す頭字語「MPSoC」で指定される。MPSoCは、並列に動作可能な最小限の計算要素と完全な通信アーキテクチャとをチップ上に統合した完全なシステムである。現行のMPSoCの通信アーキテクチャは、複数の巨視的要素から構成されるシステムに対応する接続システムアーキテクチャを再現する。このアーキテクチャは、通信バス、専用のチップ上ネットワーク(通常は「チップ上ネットワーク(Network on Chip)」を表す頭字語「NoC」で示される)、専用の相互接続スイッチングシステム(通常は「クロスバー」という表現で示される)、入力/出力インターフェイス、ランダムアクセスメモリ(通常は頭字語「RAM」によって示される)、ローカルメモリ、キャッシュメモリ、又は「スクラッチパッド」を備え得る。しかし、大体の場合、MPSoCの通信アーキテクチャは、この全てを組み合わせたものを有する。巨視的アーキテクチャに関してチップ上通信アーキテクチャの模倣における根本的な問題点は、巨視的アーキテクチャが非常に規則的な処理オペレーションに対して想定されるということである(それらが超並列計算処理オペレーション、ストリーム処理オペレーション、又はサーバータスクのいずれであろうとも)。埋め込みシステムのアプリケーションは、益々、それほど規則的でない処理オペレーション及び予想しがたい処理オペレーションの方へ向かう傾向にある。したがって、MPSoCの通信アーキテクチャは再考する必要がある。実際、ハイレベルなパフォーマンスを有し効率的なチップ上並列システム(MPSoC等)を実現するには、数十又は実際には数百の計算コア又は処理要素を一斉に稼働させる必要がある。上記が当てはまらない場合、並列性の使用は最適でない。これは数十又は実際には数百の処理要素が正しく使用されないこと、即ち、処理要素の使用率がそんなに高くないことを示す。これ以降、処理要素は「処理要素(Processing Element)」の頭字語「PE」で示す。しかし、最適な方法で並列性を利用するには、様々な問題が存在する。ソフトウェアレベルでの問題点は、アプリケーションの考えられる並列性の全体をコードで表現するための簡単且つアクセス可能なツールをプログラマに提供することである。ソフトウェアレベルでのもう一つの問題点は、このコードをコンパイルしたときに最大限の利益を得る能力である。しかし、このような非常に複雑なソフトウェアの問題は、本特許出願の主題ではない。] [0004] 並列アーキテクチャを効率的に利用するには、不確定性のコントロール、通信のコントロール、及びチェックのコントロールという3つの側面で問題に対応する必要がある。実際に、潜在的な並列性をアプリケーションから抽出しプログラムで表現したら、この並列性を所与のハードウェアアーキテクチャ内で実際に実現できなければならない。例えば、MPSoCにおいて、プログラマによって行われるアプリケーション並列性の抽出から最大限の利益を得るには、多数の処理シーケンスをチップ上の全てのリソースに正常に配布する必要があり、これらのシーケンスはデータの依存関係又は実行制御の依存関係によって相互に関連し合っている。これ以降、このようなシーケンスは実行タスクと称することにする。したがって、実行タスクはPEでの処理オペレーションの実行に関係する。通常、ソフトウェアの専門家はそれを「スレッド」と称している。本特許出願の残りの部分では特に記述がない限り、「タスク」という用語は実行タスクを指すだけである。一方でPEを選択する方法について他方でPEを一緒に稼働させる方法について何ら考慮しない場合、プログラムで表現された並列性の全体をアーキテクチャで実際に実現できる可能性は極めて低い。ある意味では、アプリケーションの並列性の可能性をプログラムで表現するのと同じように、タスクの適切な制御を通してアーキテクチャの並列性の可能性を表現する手段を見つける必要がある。アーキテクチャの潜在的な並列性の有効利用に悪影響を及ぼす全ての状況を考慮に入れる必要がある。それにはまず、中央メモリ、ネットワーク、通信バス、又はタスクマネージャ等の必須の共有リソースへのアクセスによって制限されるリスクが挙げられる。更に、タスク間の相互依存関係を十分に正確な方法で管理できないリスク、又はそれらを管理するときにある特定のアプリケーションの動的特性に合わせて調整しなければならないリスクも含まれる。最後に並列実行の不確定性を制御できず、それによりプログラムを微調整するのが難しくなるリスクを含む。考慮の結果として、PEを選択する方法及びPEを一緒に稼働させる方法を定義する実行モデルに至ることが必要である。同じチップ内で数十又は実際には数百のPEを一緒に効率的な方法で稼働させることは、現在、マイクロエレクトロニクス業界が対処しなければならない主要な課題の1つである。現在のところ、設計の観点から及びプログラムの微調整の観点からすれば、並列アプリケーションをプログラミングする技術は明らかに、シーケンシャルアプリケーションをプログラミングする技術より実現するのが難しい。プログラマがより利用し易くなるように並列プログラミングモデルを発展させるには、基礎をなす並列アーキテクチャの実行モデルをそれに合わせて適切に調整する必要がある。しかしながら、調整は、それによって現行のシリコン技術での実現効率を犠牲にすることがないように実施する必要がある。これは技術的な課題の1つであり、本発明でその対処方法を提案している。] [0005] 歴史的な理由から、並列性の利用においてはアプリケーションタスクレベルでの並列性から利益を得られることを可能にする解決策を提案するよう努力してきた。実際には、命令レベルで高度な並列性を効率的に管理することができるアーキテクチャの定義に関する集約的な研究であっても、これらの研究方法はすぐにその限界を示した。同時に、埋め込みシステムの複雑さのため、単一の制御フローの形式で埋め込みシステムをモデル化するのは極めて困難又は非効率となる。したがって、ユーザ及びアーキテクチャの設計者は、タスクレベルで並列性を支持することについて意見が一致する。このため、埋め込みシステムの分野で現在観測されている根強い傾向として、複数のプロセッサコアを同じシリコン基板に統合し、同じ回路でのタスクの並列実行を可能にしている。同じシリコン基板上でそのようなアーキテクチャの並列性を利用するためにいくつかの解決策がすでに提案されている。最もよく知られているモデルは、同時マルチスレッディング(Simultaneous MultiThreading)を表す頭字語による「SMT」モデル、チップマルチプロセッシング(Chip MultiProcessing)を表す頭字語による「CMP」モデル、及びチップマルチスレッディング(Chip MultiThreading)による「CMT」モデルである。以降、命令の集合の実行を管理できる処理ユニットは、1つの命令しか実行できない計算ユニットと区別する。] [0006] しかし、SMT、CMP、及びCMTモデルは、埋め込みシステムの問題に部分的にしか対処できない。このことは特に多くの問題点を示している。更に言えば、以下に詳述するように、これらのモデルはアプリケーション内で共存可能な種々の処理クラスについて何の区別も行わない。これらのシステムは、最適化されていない計算プリミティブ(基本形)に構築されているので、電力消費量、コスト/パフォーマンス比、及び動作信頼性についてアプリケーションの要件に適さないことがしばしばである。このようなことが主要な問題点である。] [0007] CMPタイプの解決策の場合、規則的な処理オペレーションと不規則な処理オペレーションとの区別が行われるようになる。これには、集約的な処理オペレーションに専用の計算ユニットを統合するアーキテクチャで実現される解決策が必要であり、不規則な処理オペレーションは汎用プロセッサのシステムソフトウェアで処理される。しかし、以下に詳述するように、システムバスを使用すると、アーキテクチャの反応性が低下すると共に、システムソフトウェアが計算ユニットの使用を最適化できなくなる。] [0008] このような問題点を最小限に抑えることを試みるために、米国特許出願公開2005/0149937A1号明細書『Accelerator for multiprocessing system and method』では、計算ユニット間の同期のメカニズムを専用の構造によって処理することを提案している。しかし、これはタスク間のデータ転送の問題に対して何の解決策も提供していない。] [0009] 一方、米国特許出願公開2004/0088519A1『Hyperprocessor』では、高いパフォーマンスを発揮するプロセッサとの関連でタスクの並列性に対する解決策を提案している。しかし、これは、特に不確定性及びコスト的な理由で埋め込みシステムには適用されない。] 発明が解決しようとする課題 [0010] 本発明の目的は、特に前述した問題点を軽減することである。数百の計算ユニットを個別に均一管理することは難しいので、本発明では2つのレベルでタスクの管理の階層化を提案する。計算ユニットは複数のユニットブロックに分類され、本発明ではブロックにおけるタスク管理のモードと各ブロック内におけるタスクの管理モードとを提案する。これ以降、計算ユニットのブロックは「クラスタ」と称する。所与のクラスタ内では、非常に動的な実行モデルにより計算ユニットの使用をローカルで最適化することができ、結果としてクラスタ内での同一のタスクセットの処理が実行ごとに変化し得る。クラスタ間では、より静的な実行モデルにより、コンパイル中及びリンク編集中に所与のクラスタへのタスクの割り当てが可能になり、結果として実行ごとに同一のクラスタによって同一のタスクセットが常に処理される。コンパイル中及びリンク編集中には情報の経路を保証する通信タスクも静的に管理される。本発明に係る2レベル実行モデルを適用することで、所与のクラスタに割り当てられたタスクがリモートクラスタによって生成されたデータを正式に使用する必要があるという状況が発生した場合、そのタスクの実行は同一のモデルで、あたかもローカルクラスタのデータしか使用していないかのように行われる。これは、「ダイレクトメモリアクセス」を意味する表現による「DMA」タイプの通信タスクによって可能である。このタスクでは可用性又はクラスタ外の宛先との間の伝送を信号で知らせ、データ転送を処理する。] 課題を解決するための手段 [0011] このため、本発明の主題は、タスクの並列実行を可能にする複数の処理ユニットと、通信ネットワークとを備えたシステムである。処理ユニットは複数のユニットクラスタに編成され、各クラスタはローカルメモリを備える。システムは各ユニットクラスタにタスクを静的に割り当てる手段を有し、この結果、アプリケーションの所与のタスクはアプリケーションの実行ごとに同じユニットクラスタで処理される。各ユニットクラスタは、処理ユニットのそれぞれにタスクを動的に割り当てるためのクラスタ管理手段と、ローカルメモリ内にタスクを実行するための空間を有する。その結果、アプリケーションの所与のタスクはアプリケーションの実行ごとに同じ処理ユニットで処理されなくてもよい。クラスタ管理手段は、タスクを管理するための手段と、処理ユニットを管理するための手段と、ローカルメモリを管理するための手段と、通信用処理ユニットを伴う通信を管理するための手段とを有し、このような管理手段は一斉に互いに連携して動作する。] [0012] 有利には、各クラスタが備えるローカルメモリは、クラスタ専用とすることができる。] [0013] 一実施形態では、処理ユニットのクラスタはチップ上に配置することができ、ユニットクラスタはチップ上のネットワークを介して互いに通信する。システムはまた、中央メモリを備えることもできる。] [0014] システムは、各ユニットクラスタにタスクを静的に割り当てるためのリンクをコンパイル及び編集するための手段を有することができる。] [0015] 有利には、ユニットクラスタに割り当てられたタスクが別のユニットクラスタで生成されたデータを消費する必要がある場合、データが生成されるクラスタ内でデータ送信タスクを実行することができ、このデータ送信タスクは、データが消費されるクラスタ内で実行されるデータ受信タスクにデータを送信することができる。結果として、データを消費するタスクは、同じ動的なリソース割り当てモードで、ローカルで生成されたデータしか消費していないかのように実行され得る。送信タスクと受信タスクとの間の通信に専用のメモリ空間は、関係する2つのクラスタのうちのいずれかのクラスタのローカルメモリ内で予約することができる。有利には、送信タスクは、送信タスクと受信タスクとの通信に専用のメモリ空間を飽和させないように一時的に中断され得る。送信タスクのスループットもコンパイル中に決定することにより、受信タスク用の空間の飽和の可能性がないようローカルメモリ内に受信タスク用の十分な空間を割り当てることが可能である。] [0016] 例えば、データ送信タスクとデータ受信タスクは、データが生成されるクラスタと、データが消費されるクラスタにそれぞれ静的に割り当てることが可能である。一実施形態で、送信タスクと受信タスクは、クラスタ内のローカルメモリとデータを直接やりとりする専用の実行手段によって実行され得る。] [0017] 例えば、データが消費されるクラスタは、まだ使用できるメモリ空間に応じてデータを生成するクラスタにクレジットをディスパッチし、データを生成するクラスタは受信したクレジットに応じてデータ送信スループットを調整することができる。送信タスクと受信タスクとの間の通信に専用のメモリ空間が所与のクォータを超えて使用されると、受信タスクを管理するクラスタ用のクラスタ管理手段はまた、送信タスクを管理するクラスタ用のクラスタ管理手段に割り込み信号をディスパッチし、専用のメモリ空間がクォータ以内で使用されるようになると再開信号をディスパッチすることができる。] [0018] 一実施形態では、ローカルメモリを管理するための手段は、ローカルメモリによって形成されるアドレス指定空間を断片化しないように、ローカルメモリ内の空間を一定の細分レベルで割り当てることができる。別の実施形態では、ローカルメモリを管理するための手段は、ローカルメモリ内の空間を可変の細分レベルで割り当てることができる。] [0019] 一実施形態では、ローカルメモリを管理するための手段は、ローカルメモリ内の空間のデータを消費する必要があるかもしれないタスクの数を示すカウンタを使用して、ローカルメモリ内の空間を解放することができる。タスクがデータ項目へのアクセスの必要がなくなるとすぐに、カウンタの値が変更される。このため、カウンタの値により消費タスクがまだ残っているかどうかを明らかにすることができる。消費タスクがもう残っていない場合は、メモリ空間を解放することができる。] [0020] 一実施形態では、ローカルメモリを管理するための手段は、ローカルメモリ内の空間のデータを消費する必要があるかもしれないタスクのリストを使用して、ローカルメモリ内の空間を解放することができる。ローカルメモリを管理するための手段は、関連付けられたメモリ空間を解放するために、リストのタスクがデータ項目をもはや必要していないことに準じた情報項目を待ち受ける。] [0021] 例えば、タスクを管理するための手段は、実行の前提条件を満足する割り振り可能なタスクを判別するためにタスクを選択するためのモジュールと、処理ユニットに割り振り可能なタスクを割り当てるためのスケジューリングモジュールとを有する。有利には、タスクを選択するためのモジュールは、並列マルチタスクタイプの実行モードとデータフロータイプの実行モードにおいて同一時に実行の前提条件を満たす割り振り可能なタスクを判別することができる。実行の前提条件は、処理オペレーションの優先順位、及び/又はデータの可用性、及び/又は作成されたデータを格納するためのメモリ空間の可用性、及び/又はクラスタのローカルイベント又はクラスタの外部イベントを有し得る。] [0022] 有利には、送信タスクはいくつかのユニットクラスタにデータを同時に送信することが可能であり、これによりいくつかの消費タスクに同じデータが同時に提供される。いくつかの送信タスクを同一のユニットクラスタで同時に実行し、いくつかの消費タスクに様々なデータを同時に提供することができる。] [0023] 一実施形態では、システムはDMAタイプの送信タスク及び受信タスクの管理に専用の手段を有することができる。システムはまた、少なくとも1つの入力/出力インターフェイスを有することもできる。] [0024] システムは、例えば、処理ユニット上で並列にタスクを実行することにより、モーフィングアプリケーションを実行することができる。システムはまた、処理ユニット上で並列にタスクを実行することにより、ハフ変換を実施するアプリケーションの実行を可能にする。システムは更に、パイプラインモードでタスクを実行することにより、MPEG復号アプリケーションの実行も可能にする。] [0025] 例えば、ローカルメモリ内の空間は、これらの空間のデータを消費したタスク数のカウンタ、又はローカルメモリ内の空間のデータを消費したタスクのリストを使用することにより、解放することができる。] [0026] 本発明の主な利点は、制御タイプとデータフロータイプの両方の実行モードの又は2つのモードを組み合わせた、複数のPEを備えるプラットフォームにおいてタスクの並列且つ同時実行を可能にすることである。したがって、本発明は埋め込みシステムのフレームワーク内で使用できる。] [0027] 本発明の他の特徴及び利点は、添付の図面に関連して記載された以下の説明を読むことにより、明らかになる。] 図面の簡単な説明 [0028] SMTアーキテクチャの一般的なモデルと動作例とを図表によって示す。 CMPアーキテクチャの一般的なモデルと動作例とを図表によって示す。 CMTアーキテクチャの一般的なモデルと動作例とを図表によって示す。 本発明に係るいくつかのクラスタを備えた例示的なアーキテクチャをブロック図によって示す。 本発明に係るクラスタの例示的なアーキテクチャとその動作原理とをブロック図によって示す。 本発明に従って「モーフィング」アプリケーションを実現するためのタスクを図表によって示す。 本発明に係る「モーフィング」アプリケーションでの予測及びブロック変換をブロック図によって示す。 本発明に係る「モーフィング」アプリケーション中にクラスタで実行されるタスクをタイムチャートによって示す。 本発明に係る「モーフィング」アプリケーション中の変換テーブルの更新時に発生するやりとりをタイムチャートによって示す。 本発明に係る「モーフィング」アプリケーション中のタスクの入力フローの中断時に発生するやりとりをタイムチャートによって示す。 本発明に係る「モーフィング」アプリケーション中の通信をタイムチャートによって示す。 本発明に係るMPEG−2復号アプリケーションでのデータの流れを図表によって示す。 本発明に係るMPEG−2復号アプリケーション中にマップされ転送されるタスクを図表によって示す。 本発明に係るMPEG−2復号アプリケーション中の通信の管理をタイムチャートによって示す。] 実施例 [0029] 埋め込みシステムのレベルのアプリケーションでは、処理能力を拡大することが新たに必要となっている。これまで以上に、高度な意思決定は下位レベル及び中レベルの情報処理タスクに基づいて行われる必要がある。従来の例としては、車両の走行を支援する道路標識の検知が挙げられる。そのようなアプリケーションの場合、下位レベルの処理オペレーションにて、第一に画像の明るさとコントラストを正規化し、次にSobelフィルタリング等を使用して輪郭を抽出する必要がある。この後、基本形状のハフ変換又は認識等の中位レベル処理が実行される。最後に、複雑な形状認識又は関連処理オペレーションと共に、メモリに格納されたデータベースが最上位レベルで適用される。これらの上位処理オペレーションは場合によっては視差修正等、下位中間相と結び付けることが可能である。逆に、計算上、集約的な下位レベルの処理オペレーションを、外部データ又は前の処理オペレーションから生じるデータによって直接管理することが可能である。これは特に最新世代のビデオ圧縮アルゴリズムの場合に行われる。前述したように、埋め込みシステムの分野では、同一のシリコン基板上に複数のPEを統合することにより、当該処理オペレーションのすべてを同一の回路上で並列に、特にSMT、CMP、又はCMTモデルによって実行できるようにする傾向が、現在、根強く観察される。] [0030] 図1では、従来技術に係る一般的なSMTモデルを略図で示すと共に、このモデルの動作例も示す。図の上部のブロック図は、システムソフトウェア1、又は「OS」(「オペレーティングシステム」を示す表現)を示すものであり、このシステムソフトウェア1は処理オペレーションを単一の制御リソース2(又は従来技術で知られている「タスクディスパッチャー」)に提供する。制御リソース2は処理オペレーションをn個の計算ユニットFU1〜FUnに再配布する。「FU」は「機能ユニット」を表す頭字語であり、図1にはユニットFU1、FU2、FU3、及びFUnが示されているだけである。各サイクルで、制御リソース2は、ユニット同士で共有される中央メモリ3から送られてくるデータの可用性とオペレーションの発生し得るランダムな変化とに従って命令をユニットFU1〜FUnに同時に割り当てる。図1の下部の略図において、各正方形は命令を表している。左右に延びる正方形の行は、ユニットによって時間順に実行される命令を示している。上下に延びる正方形の行は、ユニットFU1、FU2、FU3、FUnによってそれぞれ実行される命令を示している。一タスクは、同じテクスチャの正方形によって表わされる一連の命令からなる。命令間の黒色のダッシュは、命令割り当て及び制御タスクを表す。クロスドアウトされた正方形は、データやリソース等の依存関係により、ユニットによって使用されない時間間隔に相当する。この第1の解決策は、例えば、最新世代の「Intel」(商標)、「IBM」(商標)、又は「HP Alpha」(商標)プロセッサで実現されている。この解決策は、複数のプログラムカウンタを使用することにあり、複数の命令フローから生じる命令を計算ユニットに入力する。このため、プロセッサのパフォーマンスの場合のように、制限されるタスク間の依存関係、プロセッサによって認識される命令レベルでの並列性、又は「命令レベル並列度」を表す命令の「ILP」が増大する。これらの解決策は、命令の読み取り及び配布の段階が非常に複雑になるため、実施するのが難しい。したがって、これらのアーキテクチャは回路の大規模化を招き、電力消費がコンポーネントあたり100ワットを超えるようになる。これでは埋め込みシステムの制約に対応できない。] 図1 [0031] 図2では、従来技術に係る一般的なCMPモデルを略図で示すと共に、このモデルの動作例も示す。この解決策は、実現するのが比較的に簡単であるため、一般的に埋め込みシステムに最適である。図上部のブロック図は、処理オペレーションを単一の制御リソース11に提供するシステムソフトウェア10を示す。制御リソース11は処理オペレーションをn個の計算ユニットFU1〜FUnへ再配布する。尚、図2にはユニットFU1、FU2、FU3、及びFUnが示されているだけである。タスクの実行準備が整ったかどうかの判断は、制御リソース11に任される。FU1〜FUnの中のいずれかのユニットが解放されるとすぐに、中央メモリ12からデータがロードされ次第処理されるタスクがそのユニットに割り当てられる。図2の下部の略図において、各正方形は命令を表している。左右に延びる正方形の行は、ユニットによって時間順に実行される命令を示している。上下に延びる正方形の行は、ユニットFU1、FU2、FU3、FUnによってそれぞれ実行される命令を示している。一タスクは、同じテクスチャの正方形によって表わされる一連の命令からなる。命令間の黒色のダッシュは、命令割り当て及び制御タスクを表す。データのロードは、クロスドアウトされた領域で表わされる。この解決策の原理は、命令に従ってではなくユニットの可用性に応じてタスクをユニットに同時に配布するというものである。各ユニットは自身に割り当てられたタスクを次々に終了まで実行する。これらのアーキテクチャは、対称構造体と非対象構造体の2つのファミリに分割される。非対称構造体は、所与のアプリケーション分野向けに最適化された異種の計算ユニットFU1〜FUnを統合するものであり、これらのリソースへのタスクの配布はコンパイル時に前もって識別される。コンパイル時にソフトウェアのパーティショニングが実行されるため、実行時におけるタスクの動的な配布のメカニズムを簡略化することができる。このような所謂「アプリケーションドリブン」型の解決策は、特に、「OMAP」(商標)、「VIPER」(商標)、「PNX」(商標)、又は「Nomadik」(商標)のプラットフォームに組み込まれている。一方、対称構造体は、同種の計算ユニットFU1〜FUnの統合に基づいている。ユニットFU1〜FUnはIBMのCellsプラットフォームや「ARM」(商標)のMPCoreプラットフォームのように汎用的なものとすることも、Craddle TechnologiesのCT3400(MPEG4−AVC符号化/復号化用に最適化)のように所与のアプリケーション向けに最適化することもできる。対称型の解決策の場合はかなり広範に及ぶ問題を対象とすることができる。一方、非対称型の解決策の場合は明確に識別されたアプリケーション分野向けに最適化される。] 図2 [0032] 図3では、従来技術に係る一般的なCMTモデルを略図で示すと共に、このモデルの動作例も示す。図の上部のブロック図は、処理オペレーションを単一の制御リソース21に提供するシステムソフトウェア20を示す。制御リソース21は処理オペレーションをn個の計算ユニットFU1〜FUnに再配布する。尚、図3にはユニットFU1、FU2、FU3、及びFUnが示されているだけである。タスクの実行準備が整ったかどうかの判断は、制御リソース21に任される。FU1〜FUnの中のいずれかのユニットが解放されるとすぐに、データがロードされ次第処理されるタスクがそのユニットに割り当てられる。図3の下部の略図において、各正方形は命令を表している。左右に延びる正方形の行は、ユニットによって時間順に実行される命令を示している。上下に延びる正方形の行は、ユニットFU1、FU2、FU3、FUnによってそれぞれ実行される命令を示している。一タスクは、同じテクスチャの正方形によって表わされる一連の命令からなる。命令間の黒色のダッシュは、命令割り当て及び制御タスクを表す。データのロードは、クロスドアウトされた領域で表わされる。各ユニットは複数のタスクを同時に管理することができる。キャッシュメモリの欠陥等が原因でタスクが無効になるとすぐに、ユニットはそのタスクを新しいタスクに置き換える。この場合、ユニット内でタスクの切り替えが発生してもコンテキストのロードに関するペナルティは発生しない。この解決策は、前述したSMTモデルとCMPモデルを結び付ける。これには、CMPの概念を拡大して、該当するユニット上で複数のタスクを実行可能にする必要がある。差し当たり、この解決策が想定されるのはサーバータイプの解決策のフレームワーク内に限られる。特に、「SUN」(商標)の未来世代のサーバーではこの技術が利用される(まずはUltraSparc IVプロセッサを搭載、次にNiagaraプロセッサを搭載)。] 図3 [0033] 前述したように、図1、2、及び3に示したSMT、CMT、及びCMTモデルは、埋め込みシステムの問題に部分的にしか対処していない。実際、これらのモデルでは、アプリケーション内に共存可能な種々の処理クラス間の区別は行われない。したがって、制御に大きく支配される処理オペレーションは、同等の方法で、即ち、同一のPE上で、その実行時間の観点から規則正しく重要な意味を持つ処理オペレーションとして処理される。計算ユニットは規則正しい処理オペレーションと極めて不規則な処理オペレーションをサポートする必要があり、この結果、システムは最適化されない計算基本形で構築される。したがって、このような従来技術のモデルで構築されたシステムは、電力消費量、コスト/パフォーマンス比、及び処理信頼性に関してアプリケーションの要件を満たさないことがしばしばある。しかし、規則正しい処理オペレーションと不規則な処理オペレーションとを区別することにつながる、CMPタイプの既存のいくつかの解決策について述べる必要がある。これらの解決策には、集中的な処理オペレーションに専用の計算ユニットを統合するアーキテクチャで実現される解決策が含まれる。不規則な処理オペレーションは、汎用プロセッサ上のシステムソフトウェアで扱われる。集中処理オペレーション専用の計算ユニットを統合すると、最適化を行ってこれらのアーキテクチャのパフォーマンス又はエネルギー効率をかなり改良することが可能であるが、アーキテクチャの要素間の非高率な通信により、残念ながら最適化の利点が全て失われてしまう。実際、処理タスクは互いに交信する必要があり、更にシステムソフトウェア及び制御処理オペレーションと通信する必要がある。これらのシステムでは、システムバスによって通信が行われるため、遅延レベルと帯域レベルの両方で大きな代償を払うことになる。このため、これらのシステムは、制御情報の伝送における遅延、及びデータ転送の妨げとなるようなスループットによって悪影響を受ける。この結果、アーキテクチャの反応性が低下し、システムソフトウェアが計算ユニットの使用を最適化できなくなる。概して、従来技術が、埋め込みシステムの問題に対処する解決策を提供していないことは明らかである。特に、データへのアクセスが問題になる高密度の計算要素に関係する点、及び特に共有リソースへのアクセス時における実行の不確定性に関する点が挙げられる。] 図1 [0034] 実際には、計算ユニットの密度が非常に高い場合にデータアクセスに関する問題が発生する。ユニットが多数存在する場合、潜在的な並列性が実際に実現されるようにそれらのユニット全てを提供するには大量のデータが必要になることを示している。しかし、ほとんどの場合は交換バスが1つしかないことにより、外部DRAMへのアクセスが必然的に制限される。したがって、1つの交換バスでは1つの計算ユニットを適切に提供するのにもとても十分とは言えないことが多いので、このDRAMに基づいて全ての計算ユニットを提供することは不可能である。このことは、ダイナミックメモリと計算ユニットとの間のパフォーマンスの差に起因するものであり、これを受けて1980年代からプロセッサ用にキャッシュメモリを導入することとなった。このため、このような並列性の高いアーキテクチャにおいてチップ上にメモリを搭載しないのは考えられないことである。外部メモリへのアクセスは制限要因となるので、処理中にチップのメモリ上にすでに存在するデータを利用できるようにすることが必要である。これらのデータは外部メモリから送信される。したがって、それらは異なる処理によって事前に送還されているか、或いは新しい処理オペレーションに与えるために処理によりローカルに作成されている。このことは、対象となる全てのPEを提供するには通信インターフェイスに強い圧力がかかることを示している。別の言い方をすると、チップ上に中央メモリが存在する場合、ボトルネックはこの中央メモリへのアクセスのレベルに位置する。メモリが分散されている場合、ボトルネックは通信インターフェイスのレベルに位置する。したがって、計算ユニット間の通信に応じて高い接続性を維持できるインターフェイスが必要である。通信の接続性において、接続性が不十分な場合は並列性のボトルネックが生じる可能性があり、逆に通信インターフェイスが過度に大きくなるとシリコン効率とエネルギー効率が劇的に低下するという高いリスクが存在する。最後に、非常に多くのPEを制御する場合も問題が生じる。全てのユニットの制御が一元化されると、単一の制御モジュールで単一の同期ポイントが構成され、そのことは実行時に並列性を利用する際に制限要因となる可能性が非常に高いからである。他方、数十又は数百のPEをそれぞれ独立制御することには、少なくとも慎重を要する。実際には、タスクのスケジューリングについて適切な決定を下す必要がある場合は、上流の処理オペレーションの状態を把握する必要がある。これらの処理オペレーションは場合によっては離れたPEで実行され、その場合通信システムには更に追加の負荷が生じる。データストリームの処理等の静的なスケジュールによる極めて規則的な処理オペレーションを除き、実行制御なしのこのアーキテクチャは効率的でない。更に、そのようなアーキテクチャの場合は、不確定な動作によりプログラムの微調整が難しくなる。要約すると、完全な分散型のアーキテクチャでも高度に統一されたアーキテクチャでも、実行レベルで満足のいくパフォーマンス及び効率を取得することはできない。ただし、普通に並列又は厳密にデータフローになるアプリケーションについては例外である。アプリケーションが任意のレベルで制御を必要としたらすぐに、この2つの極端な手段の間で平衡中間体を見つけることを想定する必要がある。しかし、これはまた、静的制御と動的制御との間で平衡体を見つける必要がある。] [0035] 更に、並列プログラミングの主な課題は、特にストレージや通信等の共通のリソースへのアクセスにおける不確定要素の制御である。実行に関するランダムで予測できない変化や遅延を考慮したときの考えられる多様な動作は、逐次プログラムを制御する動作よりもかなり複雑である。特に、そのようなシステムを微調整してプログラミングすることは場合によっては非常に困難、又は全く不可能である。アクセスの同時発生、相互ロックアップ、種々の矛盾といった様々なリスクがある。一般的な並列システムでは、システムの観測可能な状態を適切に定義し、それによって所与の時点で出力動作が観測された理由を把握することは実際には不可能である。同じデータを同じ順番及び類似の同期条件で再生しても、システムの種々のランダムで予測できない変化により、同じ出力動作が観測されるとは限らない。システム内で発生する全て事をそれぞれの時点で完全に制御することは、当然ながら、求められている対応ではない。これを行うと、例えば種々の要素間で特定の数の厳しい同期条件を課すことによって、システムのパフォーマンスが大幅に低下するというリスクを冒すことになるからである。現実に、追及しなければならない目標は、実行におけるランダムで予測できない変化とは合理的に独立した実行を獲得することである。これはまさに、実行の決定性について述べる際に意図するところである。不確定性を制御しないで実行することに関連するリスクは数多くあるからである。まず、通信に対する制御を欠くと、入力データの供給が乏しくなり、このことは並列性には不利益となる。通信に対する制御の欠如はまた、データ着信の制御にも悪影響を及ぼす。通信が確定的でなくなると、通信ネットワークに大きな負荷がかかる場合又は相互ロックアップが存在する場合に、特定のデータアイテムがその宛先に到達したかどうかを確認する手段はもはやなくなる。通信時間の確定性の欠如によりデータ場所が不足すると、システムのグローバルな状態を定義することは不可能である。ただし、純粋なデータフロータイプの単純化したアプリケーションの場合は例外である。更に、微調整及び実行の制御を行うことも不可能である。実行の制御が欠如すると、共有リソースへのアクセスの競合に起因する問題や処理オペレーションのつなぎ合わせについての考慮不足に起因する問題が発生する。実行の制御なくして、不良プログラムの動作を明らかにすることは不可能である。実行障害の検出が遅くなり過ぎると、並列実行チェーンに沿った伝播現象が発生し、これによって元々の原因を特定するのが益々難しくなる。最後に、実行が確定的であると、チップ上の所与のアプリケーションの実行において発生する事態を制御することが可能である。これにより、プログラムの微調整及びエラーの追跡のための手段を予想することが可能になる。これらの手段では、アプリケーションの設計からのエラーを浮かび上がらせることが可能である。そのような手段では、並列プログラミングのハードポイントにアクセスし易くする。これは本発明の目的の1つである。] [0036] 図4は本発明に係る一般的なアーキテクチャの例を示す。この例では、Cl0〜Cl15の16のクラスタがチップ30に配置されている。Cl0〜Cl15の中の各クラスタは、特定の数の計算ユニットを含んでいる。これらのユニットは図4に示していない。図5にそれらのユニットの詳細を示す。クラスタCl0〜Cl15は、チップ30に配置された通信構造体によって互いに交信することができる。例えば、通信構造体はチップ上ネットワーク31(頭字語で表現すると「NoC」)となり得る。しかし、バス、階層バス、又はポイントツーポイント構造体等の非常に多様な通信構造体を使用することができる。本特許出願では、これ以降、パフォーマンスと表現のし易さとだけから、NoC 31の使用を解決策として優先する。クラスタCl0〜Cl15はそれぞれ、インターフェイスとN0〜N15で示されたNoCを備える。更に、有用なトポロジープロパティを備えたアーキテクチャでは、タスクをマッピングするための経験則及び通信をルーティングするための経験則の効率を大幅に簡略化することができる。実際に、マッピング−ルーティングは、分散システムで非常に複雑な問題を引き起こす。それはNP完全となり得る。幸いにも、近似解を提供する公知の経験則が存在する。しかしながら、様々な複雑さのうち、これらの経験則はサポートのトポロジーに非常に影響され易い。したがって、本例では円環状タイプのトポロジーが優先的に採用されている。しかし、本特許出願で説明されている発明を疑問視することなく、他のトポロジーが使用される場合もある。ネットワークの複雑さとマッピング−ルーティングの複雑さとの間で適切な妥協点を見つけることが重要である。例えば、コントローラ32及び33はDRAMタイプの外部中央メモリ34へのアクセスを許可し、入力/出力コントローラ35及び36は、円環状の推測的な規則性を中断する。しかし、クラスタCl0〜Cl15が相互に同じである限り、メモリ及び入力/出力へのアクセスとは切り離してマッピング−ルーティングの問題を検討できる。このように、第1のステップでは処理オペレーションのマッピングと、クラスタ間の通信のルーティングとを許可し得る。第2のステップでは、円環状アーキテクチャの変換−不変プロパティを利用することにより、これらのアクセスを帰納的に最適化することが可能である。] 図4 図5 [0037] 図5はCl0〜Cl15の中のクラスタ(例えばクラスタCl0)の例示的な内部アーキテクチャを示す。クラスタCl0は、例えば4つのプログラム可能なPE 40、41、42、43を備えている。例えば、ユニット40、41、42、及び43は、プロセッサ即ち「デジタル信号プロセッサ」(DSP)、或いは再設定可能な要素になり得る。クラスタCl0は、例えば、16のメモリバンク44、45、46、47、48、49、50、51、52、53、54、55、56、57、58、及び59を備える。これらの一連のメモリバンクは本例ではクラスタのローカルメモリを構成しており、有利にはこのローカルメモリを物理的にクラスタ専用とすることができる。クラスタCl0を管理するためのモジュール60は、特に、クラスタCl0内部で相互接続リソースを構成し、要件に応じてメモリバンク44〜59をユニット40、41、42、43と接続することができる。相互接続リソースは、図5に図示していない。以下、モジュール60はクラスタマネージャと称する。例えば、プログラム可能なDMAインターフェイス61は、Noc31のローカルノードとリンクされる。DMAインターフェイス61は、クラスタCl0のローカルなメモリと、Noc31へのクラスタCl0のインターフェイスN0との間でデータを有利に転送することができる。] 図5 [0038] クラスタモジュール60自体は、同時に連携して動作する複数のサブモジュールで構成される。技術的及びコスト的な制約に従い、これらのサブモジュールの製作は、ハードウェアモジュールとソフトウェアモジュールとの関わりの度合いを変化させることができる。] [0039] 例えば、クラスタモジュール60は、タスク管理モジュール62、即ちタスクマネージャを備える。実施形態は、ソーティング構造体や連想ストレージ構造体等の特定のハードウェアリソースに応じてプログラム可能又は再設定可能な解決策とすることが好ましい。これにより、パフォーマンスが使用分野に大きく左右されるスケジューラと同様の方法で、構造体をアプリケーションの制約に合わせて調整するための必要な柔軟性を保ちながらパフォーマンスを最適化することができる。] [0040] 例えば、クラスタマネージャ60はまた、メモリを管理するためのモジュール63即ちメモリマネージャと、ユニットを管理するためのモジュール64即ちPEマネージャと、ネットワーク及び通信を管理するためのモジュール65即ちネットワーク/通信マネージャを備える。これらのマネージャは、パフォーマンスを最大限に高めるために主としてハードウェアベースとすることが好ましい。全ての場合で、モジュール62、63、64、及び65を同時に呼び出すことができる。しかし、ここで提示したクラスタマネージャ60のサブモジュールへの分割が、これらのサブモジュールの機能をサポートするハードウェア又はソフトウェア構造体を予測するものではないことを明確に理解されたい。このため、管理が必要なリソースに機能が近づくように機能の階層化を行い、ボトルネックの発生を回避することができる。そのような例を、データフローモードの効率的な管理について、以下に詳しく説明する。] [0041] クラスタCl0の初期化時又は強制リロード中に、タスクマネージャ62とネットワーク/通信マネージャ65は、動作する上で必要な情報が入った記述テーブルを受信する。この初期化プロシージャは、例えば、内部ネットワークを経由して初期化シーケンスを配布する外部マスターによって又はクラスタCl0〜Cl15のそれぞれを順番に初期化する内部プロシージャによって管理され得る。マネージャ62と65はこれらのテーブルに頻繁にアクセスするため、これらのテーブルは、クラスタCl0のメモリバンク44〜59に格納されるのでなく特定の内部メモリ空間に格納されるのが極めて好ましい。] [0042] マネージャ62、63、64、及び65は、クラスタCl0から発信された種々のイベントを受信でき、それにはユニット40〜43で実行されるタスクの一部でのデータの生成若しくは消費に関するイベント、又はタスク終了イベント等がある。メモリリソースを効率的に管理するために、これらのマネージャはまた、オーバーフローに関するイベント又は割り振られたメモリ空間がオーバーフローするリスクに関するイベントも受信できる。同様に、これらのマネージャはメモリ内にあるデータのディスパッチを要求できる。このイベントリストは限定的でなく、これらのマネージャはアプリケーションの要件に従ってアプリケーションの実行及び制御に関連する可能性があるどんなタイプのイベントも利用できる。] [0043] ソフトウェアタスクは、プログラマが、例えばデータ依存関係を考慮する等、純粋なソフトウェアの検討事項に基づいてアプリケーションを処理オペレーションに分割した結果として作り出されたものである。ソフトウェアタスクは、ハードウェアに関する検討に由来するものではない。一方、実行タスクはハードウェアアーキテクチャ及びマッピング−ルーティングの特定の機能、並びに処理オペレーションのスケジューリング又は処理オペレーションを中断する能力等の他の多くの要因に関係する。図5のクラスタCl0では、ユニット40、41、42、及び43での実行タスクの実行の管理はタスクマネージャ62に任される。例えば、タスクマネージャ62自体は、タスクを選択するモジュールとスケジューラとから構成され得る。この2つの要素については図示していない。例えば、タスクの実行を開始するための最小限の前提条件は、システムの初期化時にタスクを選択するためのモジュールにテーブルにて提供され得る。この前提条件には、クラスタのローカルイベント又は外部イベントが必要となる場合がある。これらの前提条件は、タスク間の優先順位だけでなく、タスクを開始するのに必要な最低限のデータの可用性又は生成されたデータを格納するメモリ空間の可用性を含んでもよい。タスクの実行モードが並列マルチタスクタイプであろうとデータフロータイプであろうと、所与のタスクが待機状態にあって最低限の前提条件を満足すると、タスクは、タスクを選択するためのモジュールによって割り振り可能になると考えられる。次にスケジューラは、割り振り可能なタスクの中から、PE 40、41、42、及び43で実行されるように選出されるタスクを選択する。スケジューリングポリシーは、アプリケーションに大きく左右されることに留意されたい。例えば、当技術分野で公知のように、純粋なリアルタイムシステムのスケジューリングポリシーは、「ベストエフォート」システムのスケジューリングポリシーとは根本的に異なる。したがって、スケジューリングポリシーは目的とするアプリケーションのタイプに従ってプログラム可能又は再設定可能となる。] 図5 [0044] 更に、最小限の前提条件が満足された場合、これはユニット40、41、42、又は43のいずれかにタスクを割り振り可能であること、即ち、タスクの実行を開始できることを意味する。しかし、このことは必ずしも全てのデータが利用可能であることを意味するものではない。したがって、データ又はメモリ空間の可用性に関係する可能性がある内部的な同期化フェーズなしに、タスクの実行が終了され得るかどうかは不明である。以下に詳述するように、タスク内部のこのような同期化は、PE 40、41、42、又は43によってローカルに管理される場合もあれば、タスクマネージャ62を必要とする場合もある。] [0045] ユニット40、41、42、又は43のいずれかにタスクが割り当てられた場合、クラスタマネージャ60は選択されたユニットにパラメータを転送する。このパラメータは選択されたユニットが自身を初期化するために必要であり、例えば、タスクが切り換えられている場合は現在のコンテキストが考えられ、又はローカルアドレス変換テーブルの入力も考えられる。これらのテーブル(操作方法については本特許出願で以下に詳しく説明する)によって、プログラミングにより生成されるデータとタスクの実行時にのみクラスタ上でローカルに利用可能な物理アドレスとの間にリンクを形成することができる。このテーブルにより、タスクは操作の必要なデータにアクセスすることができる。タスクは、タスクが実行されるユニットに対して及びそのアップグレード(存在する場合)に対して可能な限り最も透過的な方法で動作する。タスクは、データにおける処理オペレーションを、それが生成か消費かに関わらず、終了したことを示すためにクラスタマネージャ60に信号をディスパッチし得る。関連付けられているメモリは解放されて別のタスクへ再割り当てされる、或いはそのメモリ内に格納されているデータが別のタスクへの入力として役に立つ場合がある。タスクにおいて、メモリアロケーションテーブルを介してタスクに提供されているメモリへのアクセスが無効になった場合、原因として次の2つの状況が考えられる。まず、該当するタスクで障害が発生しており、タスクを停止させなければならない場合が考えられる。或いは、入力のために必要な全てのデータ、又は出力のために必要な全てのメモリ空間がまだ準備できていないにも関わらず、タスクが開始された場合が考えられる。後者の状況はまた、データフロータイプの処理の場合とも一致する。データフロータイプの処理ではデータが継続的に供給される必要がある、しかし、データの効率的な供給は前の処理オペレーションによって提供された入力ストリームのテンポ(速度)に依存するのである。タスクに割り当てられているメモリ空間は無限ではないので、入力ストリームがまだ有効であるにも関わらず、生成されたデータを格納するのに必要な空き領域が不足するということも起こり得る。このような状況はエラーではない。しかし、これらの状況が発生すると、タスクマネージャ62は、ユニット40、41、42、又は43のいずれかに割り当てられる別のタスクを保持している場合に処理の切り替えを行う場合がある。このような処理の切り替えは、処理オペレーションの数と選択されているスケジューリングポリシーに依存し得る。処理オペレーションを実行するのに必要なデータ又はメモリが有効になると、クラスタマネージャ60はユニットのアドレス変換テーブルの更新版を伝送することもできるので、結果として該ユニットはタスクを引き続き進めることが可能である。メモリアクセス中のエラーの検出は、安全なオペレーションを実現するため及びアプリケーションの効率的な微調整を可能にするために最も重要である。読み取り時、該当するエラーは、生成されていないので決して利用できないデータ項目へのアクセスを意味する。書き込み時、該当するエラーは当タスクに割り当て可能なメモリ空間を超えるデータ項目へのアクセスを意味する。障害の場合と正常なオペレーションの場合との区別を行うには、無効なアクセスを解析する必要がある。正常なオペレーションの場合につながるアクセス範囲と、エラーの場合につながる第2の範囲がオフラインで定義される。技術的に公知である「ウォッチドッグ」を使用することも可能である。ウォッチドッグを使用すれば、スタンバイ状態でデータ又はメモリ空間を待機しているタスクを識別できる。ウォッチドッグの動作は、最悪な場合、時間的な振る舞いとの関連で異常となる。これらのタスクは誤りと見なされる。また、タスクがデータフローモードを利用すべきかどうかを識別することも可能である。特定のケースでは、エラーを迅速に検出することが可能であるが、非データフロータスクはスタンバイ状態でデータを待機することができない。] [0046] 図4の例示的な実施形態では、クラスタCl0〜Cl15並びにコントローラ32と33は、有利には、少なくとも1つのDMAエンジン等、通信タスクに専用の実行手段を備える。DMAエンジンは有利にはクラスのローカルメモリと直接的にデータのやりとりを行うことができる。これらのDMAエンジンを有利に使用することにより、クラスタCl0〜Cl15の中でのデータのやりとりを可能にする通信タスクを実行することができる。このため、本特許出願の中ではこれ以降、通信タスクを「DMAタスク」と称する。例えば、送信タスクはデータが生成されるクラスタで実行することができ、受信タスクはデータが消費されるクラスタで実行することができる。有利には、この送信タスクと受信タスクは、他のタスクと同様にクラスタに静的に割り当て可能である。本発明においてDMAエンジンは単に特定のPEとして見なされる。DMAタスクは処理タスクと同様の方法で管理されるが、DMAタスクでは、DMAタイプのリソースを使用してタスクを実行するために管理手段を制約する必要がある。通常のオペレーションで、データの受信を任されるDMAエンジンは、受信時に提供されるデータ量に合わせてメモリ44〜59内の空間を利用できるようにする必要がある。もはや利用できるメモリがないのにデータが着信した場合、これによりクラスタマネージャ60に信号で知らせなければならない重大なエラーに巻き込まれる。この問題を回避するために、メカニズムにおいては、図5の受信モードにあるクラスタCl0は、飽和した通信リンクの問題を送信クラスタに信号で知らせることができる。図5の例では、メモリマネージャ63が該当する通信リンクへの追加メモリの割り当てに成功しなかった場合、有利には、送信クラスタに割り込み信号をディスパッチすることができる。割り当てを実行するために十分なメモリが利用できるようになるとすぐに、第2の信号を送信クラスタにディスパッチすることができる。コンシューマによって送信ストリームがあるクラスタから別のクラスタへ転送される必要がある場合、このメカニズムでは確実に、可能な限り最も透過的に連携することができる。] 図4 図5 [0047] データロードが終了した場合、アップ方向かダウン方向かに関係なく、対応するDMAエンジンはクラスタマネージャ60に信号をディスパッチしてその旨を通知する。このロードの終了は、タスクのローカル割り当てに関係する前提条件を満足するといった方法で行われ得る。このため、データ受信クラスタCl0の観点からすると、クラスタ間通信メカニズムはユニット40、41、42、又は43のいずれかによるデータのローカル生成に相当する。クラスタCl0の観点からすれば、この場合、ユニット40、41、42、又は43のいずれかによって実行されたデータ生成タスクの終了か、DMAエンジンによるデータ受信タスクの終了か、いずれかのタスク終了を待機することが必要である。これにより、ローカルデータを操作する処理オペレーションの実行モデルとリモートデータを使用する処理オペレーションの実行モデルの差別化を回避することができる。そのようなクラスタ内及びクラスタ間の実行モデルのユニットが実際に存在するかどうか示せることは非常に重要である。実際、このユニットは一元的であるので、コード生成の簡略化を将来的に実現可能にする。したがって、DMAタスクはタスクマネージャ62による通常のタスクと同じ方法で管理される。しかしながら、DMAタスクは、チップのネットワーク中を流れる外部データによって制約されるに違いない。とりわけ、DMAタスクは、選択された通信チャンネル、割り当てられた帯域幅、及び処理されるデータの配置用に特に生成されたプログラムとする必要がある。アプリケーションの要件によれば、更にDMAタスクのプログラムをパラメータ化することにより、通信に影響を及ぼす、オフラインで予測不可能な全ての情報を把握することができる。一例として、画像内の物体追跡の機能では、サイズと位置が低レベル処理の後でしか取得されない画像のサブパートの操作を必要とする。] [0048] メモリマネージャ63は、メモリバンク44、45、46、47、48、49、50、51、52、53、54、55、56、57、58、及び59に格納されたデータをクラスタCl0内の種々の実行タスクに割り当てる処理を担当する。メモリマネージャ63は、タスクが実行されるユニット40、41、42、及び43と一緒に動作する必要がある。このため、メモリマネージャ63は、種々のイベントを、タスクを実行するPEから直接的に受信するか、タスクマネージャ62を経由して受信する。これにより、アクセス権限とタスクのメモリクォータの管理が可能になる。ユニット40、41、42、及び43で実行される各タスクへのメモリ空間の割り当てに加えて、メモリマネージャ63はまた、クラスタ通信時に各通信チャネルに関連付けられたメモリ空間を管理することにより重要な役割を果たす。例えば、メモリマネージャ63は、有利には、データ項目のタスクに割り当て可能なメモリサイズである、クォータを管理することができる。このクォータはデータフローに対する処理オペレーションに関連して直接利用されるが、その有効性はこれに限定されるものではない。実際には、クォータを超過するとタスクマネージャ62に向けてイベントが生成され、タスクマネージャ62は、データ項目が生成されるクラスタのタスクマネージャと適宜通信することにより、データの生成を中断することが可能になる。データ項目が再びクォータを下回ると消費プロセスによって第2のイベントが生成され、これによりプロデューサタスクの再開が可能になる。データ項目によって実際に占有される空間は用語「クォータ」によって早計に判断されない。これは、イベントの生成とプロデューサタスクの停止との間の遅延によりデータ項目がクォータを一瞬超過する場合があるからである。遅延を延ばしクォータを適宜計算するのは、オフラインのディメンショニングツールの役割である。これらのツールがエラーをコミットした場合、それを検出するのは簡単である。クラスタ上でのメモリの動的な割り当てによりクラスタ上で利用可能なメモリのオーバーフローが発生すると、重大な例外が生成される。或いは、メモリが十分に利用されていないのにタスクが不当に待機状態に置かれている場合、この状態は、当技術分野において公知である「プロファイリング」ツールによって明らかにされ得る。] [0049] クォータの概念を更に規定するために、全てのデータ依存関係、即ち、クラスタ内部の及びクラスタ間のデータ依存関係、又はクラスタと中央メモリ間のデータ依存関係、に対してこれらを適用することが重要である。] [0050] クォータの実施方法にはいくつか存在する。本例では、メモリの使用を最適化するために、プロデューサ及びコンシューマ用に別々のメモリを使用しないことが有利である。ただし、クラスタ間の通信の場合は例外である。これは、データの生成に関して、又は所与のタスクの消費に対して提供されたデータ量に関して、クォータを割り当てるには十分であることを意味している。両方の場合とも、最適な実行制御を行うには、クォータ超過データ項目のプロデューサとコンシューマのペアはどれかを把握することが必須である。特定のデータ項目についてはこのペアは必ずしも一意ではないので、可能性のある候補を識別できる必要がある。このように、タスクマネージャ又はプログラマ(開発の段階に応じて)が、ランダムな予測のつかない変化について原因を正確に検出することができることにより、ランダムな予測のつかない変化は限定され、他のタスクの通常のオペレーションはすぐに損なわれないよう保護される。ここでは以降、データの過小消費の観点から問題を見ることによってクォータ超過を識別する特定の実施形態を示す。データ生成におけるクォータの観点からこの識別を解決することは、数学的に双対問題となる。] [0051] このメカニズムは、最大限の実行制御を試みなくても、単にデータ項目ごとに潜在的なコンシューマの数を指定することにより簡単に実施できる。この場合は、残りの潜在的な消費の数を特定するには、潜在的な各アクセスでこの値を減少させれば十分である。しかしながら、この場合は、複数のコンシューマが存在していると、どのコンシューマがロックアップの原因となっているのか特定するのは不可能である。] [0052] 通信時にストリームのサイズを制御する方法は当然ながら他にも存在するが、重要なことは、通信チャンネルの容量を超えたときにデータ損失を検出できるようにすることである。したがって、通信チャネルで利用可能なメモリ空間についてプロデューサに情報項目を提供することも可能である。有利には、この解決策はクレジットベースのメカニズムで実施され得る。しかしながら、クレジットベースのメカニズムは、データの流れがクラスタ内部で発生する場合とデータの流れがクラスタ外部で発生する場合との整合性の喪失という犠牲を払って行われる。受信クラスタは、この場合は、利用可能なメモリサイズに応じてプロデューサクレジットを含むクラスタにディスパッチする。プロデューサによるデータのディスパッチは、十分なクレジットの存在によって条件付けされる。] [0053] メモリマネージャ63はいくつかの信号を受信する。例えば、タスクによるメモリブロック利用の終了を示す信号を受信することができる。これを受けて、メモリマネージャ63はアロケーションテーブルを更新する。問題のブロックがDMAタスクを含む実行タスクで使用されていない場合、メモリマネージャは再使用のためにブロックを解放する。メモリマネージャ63はまた、タスクへのブロックの割り当てを示す信号も受信する。例えば、自身ではデータを消費しない実行タスクによってデータブロックが生成されると、そのブロックは種々の消費タスクに単純に割り当てられる。メモリマネージャ63では、このデータ項目との関連で消費タスク向けのメモリクォータの違反が発生しないことを確認する必要がある。メモリクォータは、マッピング−ルーティングツールによって定数としてメモリマネージャ63に提供される。クォータの超過が発生するたびに、タスクマネージャ62に例外がレポートされる。タスクのレベルでクォータを超えた後、問題のタスクのレベルでクォータ超過が消えると、メモリマネージャ63はまたタスクマネージャ62に信号をディスパッチし、その後データ消費が発生する。] [0054] 本特許出願で、ブロックはメモリマネージャ63で管理される最小の要素を示す。メモリのサイズは、メモリバンク44〜59内の最小のアドレス指定可能な要素から完全なメモリバンクまでの範囲で変化し得る。粒度が粗くなるほど、プログラムするメモリマネージャ63は簡単になる。しかし、粒度が粗いとメモリリソースの利用不足が深刻になり、システム全体でパフォーマンスに関して影響が出る。他方、粒度が過度に細かいと、メモリマネージャ63が非常に複雑になり、システムのボトルネックが発生する恐れがある。このように、ブロックの粒度について適切な妥協点を探すのには理由がある。更に、本発明で提案する実行モデルでは、ブロックのサイズを可変にすることが可能である。しかしながら、優先的な実施形態では、確定性の観点から適切なプロパティを持つ同種のフレームワークを採用するよう、固定されたブロックサイズを使用し得る。更に、可変サイズのブロックの管理では、デフラグ機能を導入して連続的なアドレス指定空間を維持する必要がある。] [0055] 物理的か仮想的かに関わらず、通信のルーティングをオフラインツールによって実行できるようにする必要がある。したがって、これは静的状態又はフェーズルーティングによる静的状態を伴う。最大限の通信遅延及びアプリケーションの確定的な実行を保証するために、オフラインで実行されるルーティングに対して遅延が保証されたルーティングメカニズムが必要である。いくつかのスキームでは、単純な帯域幅の予約からより複雑な変形例まで(当技術分野で公知の「時分割多重アクセス」又は「TDMA」等)まで、この成果を出せる。ある特定の通信ネットワークでは、マルチバスネットワーク又は専用の相互接続スイッチングシステム等、固定された明示ルーティングを受け入れることに注意されたい。クラスタCl0にローカルなNoC 31のノードは、クラスタCl0のデータを入力又は出力する役割を担うDMAタスクと関連付けられる。DMAインターフェイス61と一緒に、NoC 31によって形成されるネットワークのプロトコルにDMAタスクを適応させるインターフェイスである。他方、ネットワークのノード間でデータを伝播する方法は実行方法に影響を及ぼさない。この実行方法は、「回路スイッチ」タイプのネットワークの場合と同様に「パケットスイッチ」タイプのネットワークへも適合するよう試みる。尚、これらのタイプのネットワークは当技術分野で公知である。しかしながら、データによって横断されるパスの仕様を配布できなければならない。「パケットスイッチ」タイプのネットワークにおいて、これはデータパケットでの通信パスのパラメータ化を伴う。分散型の設定インターフェイスでは、通信で横断されるネットワークの各ノードを部分的に設定することが可能であり、既存のパスを妨害しないように通信パスが開かれる。NoC31がバスタイプの通信構造体と置き換えられた場合、この構造体はネットワークノードを備えていないので、結果として、バスへの適合及びアクセスのためのインターフェイスだけがCl0〜Cl15の各クラスタで実施されることに注意されたい。] [0056] DMAタスクの目的は、クラスタCl0〜Cl15の間でデータのやりとりを確実に行うことにある。このため、DMAタスクはデータの生成タスクと消費タスクが同じクラスタ上にない場合に稼働する。クラスタCl0で実行する処理タスクは、クラスタCl0内のメモリバンク44〜59に存在するデータのみを使用する。したがって、リモートクラスタで実行されたタスクがデータの相互依存関係を有する場合、クラスタCl0〜Cl15の間でデータの転送を行う必要がある。このため、送信タスクはデータを生成しないが、クラスタCl0のローカルデータを読み取ってそれらを別のクラスタのメモリ空間に再度書き込む。DMAタスクは、自由裁量のハードウェアサポートに応じて多かれ少なかれ複雑になると考えられる。したがって、データアクセス機能は、当技術分野で公知の「バースト」モードでのデータアクセス等、極めて基本的なものとなり得る。この場合、生成タスクと消費タスクについては、そのデータを再編成して適切なパフォーマンスが得られるようにするために、調整が必要である。逆に、データアクセス機能(例えばDMAタイプの)が複雑である場合、DMAタスクはデータの再編成を行い、処理タスクの簡略化に役立てることができる。例えば、クラスタCl0からクラスタCl15までの通信を実行するには、いくつかの条件を満足する必要がある。まず、クラスタCl15又は中央メモリ34へのデータのディスパッチを管理するDMAタスクがクラスタCl0でアクティブされる必要がある。即ち、その最小限の前提条件が全て満たされる(例えば、ディスパッチされる最初のデータセットの場合と同様にデータの受け側の準備ができていること)。送信タスクは、クラスタCl0内のDMAリソースに割り当てる必要がある。更に、クラスタCl0から着信するデータの受領を管理するDMAタスクを、クラスタCl15でアクティブにする必要がある。更に、データを受信するためのメモリ空間が利用できなければならない。最後に、物理的な通信パスを開く必要がある。即ち、データの伝送を可能にするようNoC31のノードを設定する必要がある。通信が確実に行われるよう、特定数の同期を確実に実行する必要があることは明白である。特に、送信側と受信側が全く同時に存在するようにDMAタスク間には依存関係が存在する。特定の並列通信の場合(例えば、クラスタCl15がいくつかのソースからデータを受信する場合)は、DMA受信タスクを並列に実行するためにクラスタCl15に十分に利用可能なDMAリソースが確保されていることが必要であるか、又はクラスタCl15内でDMA受信タスクが待機状態に置かれたとき、識別子を取り込んだ各通信が実行されるDMA受信タスクを見定めることができることが必要である。実際には、各チャネルは一対のDMAタスク(一つは送信タスク、もう一つは受信タスク)で管理される。このため、受信側からは、着信チャネルにつき1つ、DMAタスクの重畳として、収束が見られる。これにより、着信フロー間のフェーズシフトを効率的に管理することができる。送信クラスタCl0側ではまた、並列に管理されるいくつかの通信が存在し得る。したがって、これが該当する場合は、クラスタCl0に利用可能な十分なDMAリソースを確保する必要があるか、又はDMAタスクを管理する調停機能を備える必要がある。例えば、タスクマネージャ62は、この調停機能を実行することができる。しかしながら、NoC 31におけるパフォーマンス及び帯域幅管理の理由で、DMA機能に可能な限り近づけられ、それによって反応が良くなった、DMAタスクに専用のマネージャに調停機能を統合するのが好ましいという結果になると考えられる。いくつかの受信側へ同時にディスパッチを行うことができる「マルチキャスト」モード及び/又は「ブロードキャスト」モードを統合する最適化の可能性についてここでは注目すべきである。しかし、このオプションはコスト高となるので、その収益性についてはプラットフォームのタイプごとに個別的に調査する必要がある。同様に、いくつかの受信DMAタスクが、タスクマネージャ62によって、又はDMAタスクに専用のマネージャによって管理可能である。しかし、そのようなDMAタスクに専用のマネージャは、特にそれがユニット40〜43のうちの1つにおいてのみ実施される場合、管理可能なDMAタスクの数に制限がある。よって、アプリケーションの全てのDMAタスクがこの専用のマネージャで同時に管理され得る可能性は極めて低い。このため、タスクマネージャ62とDMAタスクに専用のマネージャとの間で共同アプローチが想定され得る。タスクマネージャ62の場合は、例えば、DMAタスクに専用のマネージャによる管理が必要なDMAタスクの選択と選択解除を担当する。有利には、各通信の受信で必要とされるバンク44〜59内の必要メモリ空間は、コンパイル時及びタスクの静的配布時に例えばリンクの編集によって保証され得る。通信パスの開放は、システムに統合されたネットワークの性質に密接に関連する一ステップである(即ち、本例示的実施形態のNoC 31)。よって、ネットワークインターフェイスユニットは、ネットワークの利用を管理する(即ち、本例示的実施形態のDMAインターフェイス61)。例えば、インターフェイス61は、パケット化と、「パケットスイッチ」タイプのネットワーク用のヘッダの書き込みを担当する。分散型「回路スイッチ」タイプのネットワークの場合、ネットワークの部分設定のためのポートを提供する必要がある。ネットワークが「回路スイッチ」タイプの非分散型構造体である場合は、一元化されたユニットをシステムに追加する必要があり、通信で必要とされる2つのDMAタスクのうちの1つは、パスが存在しない場合にその作成について該ユニットに問い合わせる必要がある。バスタイプの構造の場合は、Cl0〜Cl15の中の各クラスタに共有メカニズムが存在する必要がある。他方、通信要素の識別と同期化についてはバスのプロトコルが担当するので、ルーティングメカニズムは必要なくなる。] [0057] しかしながら、本発明は(並列ハードウェアアーキテクチャ及びこの並列性を利用可能な実行モデルに基づいているが)、データフロータイプの逐次処理オペレーションに好適である。図5の例では、いくつかの手段を使用してデータフロータイプの処理中にPE間でデータの同期化し共有することが可能である。しかし、アーキテクチャのプログラミングを容易にするために、均一なクラスタ間及びクラスタ内解決策を維持することが重要である。例えば、クラスタCl0で実行され所定のメモリクォータに到達するタスクは、クラスタ管理モジュール60の関与なく自動的にアイドル状態になり得る。この場合はローカル同期化メカニズムを必要とする。このメカニズムは、データフロー処理に参加する40、41、42、43の中の各ユニット間で利用可能であるだけでなく、処理がクラスタ間で分散される場合にCl0〜Cl15の中の各クラスタ間でも利用できなければならない。一杯又は空である送信先メモリ空間の検出は、先に提示したクォータシステムによって実行可能である。好適な方法では、クラスタ管理モジュール60を使用して種々のPE間の同期化が管理される。この方法では同期化に起因するペナルティが増すが、割り当てられた種々のタスクの実行状態のより全体的な状況が提供される。このメカニズムでは、いくつかのアプリケーションの例を通して、より詳細な解析の対象を形成する。] 図5 [0058] 採用される実施形態とは関係なく、各管理手段の機能仕様が提案可能である。] [0059] タスクを管理するための手段は、クラスタ上のタスクの状態を更新することが可能な全てのメカニズムを網羅する。最低限の実施形態では、待機状態と準備完了状態という所与のタスクについて考えられる少なくとも2つの状態を明らかにすべきである。待機状態の特徴は、タスクはその実行のために必要な少なくとも1つの要素が不足すると実行されないということにある。必要な要素のリストは、非常に変化に富んでいる。例として、PEの可用性、処理されるメモリ又はデータの可用性が挙げられる。このリストもタスクの性質に左右される。したがって、通信タスクの要件のタイプは、必ずしも処理タスクの場合と同じではない。準備完了状態の特徴は、タスクがその実行のために必要なあらゆるリソースを採用可能であることにある。タスクを管理するための手段によって実行される割り当ては仮想的なものであり、その理由は、タスクと実行リソースとの間に物理的なリンクが設定されるわけではないからである。システムが実施される方法では、タスクの実行において特定の変化をより適切に考慮するために、更なる状態の追加をもたらし得る。一例として、所与のタスクはその実行が開始されると、処理中に取って替わられる場合がある。] [0060] PEを管理するための手段は、タスクをPEに割り当てることが可能なあらゆるメカニズムを網羅する。このため、各PEには解放状態と割当状態という少なくとも2つの状態を関連付け可能である。解放状態の特徴は、関連付けられたPEがタスクに割り当てられていないことにある。割当状態の特徴は、関連付けられたPEがタスクに割り当てられていることにある。仮想的な割り当てを行うタスク管理手段とは異なり、PEを管理するための手段はリソースの物理的な割り当てを実行する。タスクの管理の場合と同様に、システムが実施される方法では、PEの実行において特定の変化をより適切に考慮するために、更なる状態の追加をもたらし得る。一例として、PEに対するアイドルモード又は低消費モードの実施が処理され得る。] [0061] メモリ管理手段では、メモリを割り当て可能なあらゆるメカニズムを網羅することにより、1つ又は複数の所与のタスクにメモリが関連付けられ、データ項目が潜在的に有用である限りメモリが維持される。メモリ空間の割り当ては、事前に空きと見なされているメモリ空間部分(即ち、ローカルで保持される必要があるデータをもはや含んでいないメモリ空間部分)を確保し、それをタスクと関連付けできるようにすることを目的とする。その後の関連付けにより、割り当てられたメモリ空間を、1つ又は複数のタスクで処理要件に応じて使用できる(例えば、生成又は消費されるデータの読み取り又は書き込み、もしくは中間処理オペレーション)。権利管理では、不安定なデータ項目(即ち、タスクによって書き込み又は修正されるデータ項目)が他のタスクの読み取りモードで利用できないように保証することができる。最後に、メモリ空間は明示的なコマンドの形式によって(即ち、メモリ空間に割り当てがもはや存在しないため)、又は2つのメカニズムの組み合わせによって解放することが可能である。] [0062] いくつかのクラスタが通信チャネルを経由してデータ又は情報のやり取りを行う必要がある場合は、通信構造の制御及び管理を可能にするあらゆるメカニズムを包含した通信管理手段をセットアップするのが有用である。これらの管理手段は、通信構造の性質に大きく依存している。したがって、バスが使用される場合、管理手段には優先順位とアドレス指定の管理を含めることができる。NoCの場合、管理手段にはルーティングの管理と各通信と関連付けられた帯域幅の管理を含めることができる。] [0063] クラスタを管理するための手段は少なくとも、タスクを管理するための手段、PEを管理するための手段、及びメモリを管理するための手段といった管理手段を全て含んでいる。いくつかのクラスタが、互いの通信を必要とする処理オペレーションを備えている場合、通信を管理するための手段を備えることが有用である。これらの管理手段とプラットフォームの残りの部分との間の全対話、並びにそれらの同期化に役に立つメカニズムは、クラスタを管理するための手段の中に包含されている。] [0064] 本発明のオペレーションの方法を、3つの非常に異なる実行例を通して以下に説明する。ビデオ復号アプリケーションの例ではデータフローの逐次処理を示す。モーフィングアプリケーションの例では、アクセスレベルでそれほど規則的でない処理を示す。最後に、イメージ処理アプリケーションでは大規模な並列処理を動的制御フローで示す。] [0065] 図6〜図11では、モーフィングアプリケーションの実行例を示す。モーフィングアプリケーションは、通常の画像処理専門用語の「マクロブロック」における通例の変換よりも繊細な効果を考慮に入れるために、特定の高度な画像圧縮及び圧縮解除アルゴリズムでの動き推定のために使用される。アクセスのレベルにおいて、「ブロックマッチング」タイプの従来の動き推定より規則性が低く、理論的にはビデオコーダーで得られる圧縮レートを高めることができる。データはよりコンパクトになるが、その代りデータによってますます指示される計算が複雑になる。インテリジェントなアルゴリズムであり、この点において、メモリアクセスと処理オペレーションについて要求が厳しい。アルゴリズムの原理は画像を変形することにあり、この画像の変形ではカメラのズーム又は回転を特にモデル化することが可能である。このアルゴリズムはまた、グラフィカル表現システムでテクスチャ計算にも使用される。基本的なモーフィングアルゴリズムは、次のようにC言語によるコード形式に変換することができる。 for (x=0; x< XM; x++) for (y=0; y< YM; y++) {u= Fx(x); v= Fy(y); dest[x][y]= src[u][v];}] 図10 図11 図6 図7 図8 図9 [0066] 定数XMとYMはそれぞれ、該当する領域の幅と高さを表す。提示したアーキテクチャでのこのアルゴリズムの実施形態を過度に簡略化しないよう、いくつか重要なことを想定しておく。まず、関数Fx及びFyが微分可能であると想定する。この想定は、実際の変換システムには理にかなっている。更に、関数Fx及びFyの消費時間は、中央メモリとの通信の時間に対して十分に長いものと想定する。この想定は、そうしたプラットフォームで並列性を実現するのに必要である。この想定がないと、処理は全体的にメモリとの伝送によって管理され、並列性を利用することはできない。最後に、画像は高解像度(HD)である、又は少なくとも、チップに埋め込まれたクラスタのローカルメモリ内に画像を格納することはできず、このため、「src」及び「dest」フィールドは中央メモリに格納されるものと想定する。この想定は、現行技術のフレームワークでは明らかである。また、中央メモリとのやりとりがどのように行われるかについても明確に示すことができる。] [0067] このコード部を基本的なアクティビティに分割する場合、このコード部分は4つのクラスタで動作しているものとする、及び推論の一般化が破られてはいけないものとする。しかし、処理オペレーションは、この4つのクラスタを占有するために十分な計算を行うことを意味している。変換を検索するフレームワーク内において、この想定は全く実現的なものである。したがって、各クラスタで、複数のPEにわたる処理オペレーションの分散は次の通りである。 ●消費Fx及びFyに対する4つの実行タスク。これらは最も高価な計算である。 ● 適宜、中央メモリから及び隣接するクラスタからロードされるマクロブロックの制限値の評価を担当する処理。 ● マクロブロックをロードするためのDMA処理。 ● 計算/予測されたマクロブロックに基づいてロードされたブロックで、モーフィングを実行するループの主処理。 ● クラスタのローカルメモリに現在ロードされているマクロブロックを隣接クラスタに信号で知らせるDMA処理。 ● 中央メモリ内で返還されたデータを出力するDMA処理。] [0068] タスクのチャートにおいて、図6はこれらの処理オペレーションに応答可能なタスクT1、T2、T3、T4、T5、T6、及びT7を示す。この図ではPEで実行されるタスクが円で表示され、DMAで実行されるタスクが矩形で表示される。本特許出願を通して、この形式に従っている。このあと、タスクT1、T2、T3、T4、T5、T6、及びT7について詳しく説明する。] 図6 [0069] 通信のルーティングは種々のクラスタ間で円形チェーンとして実行される。タスクのマッピングは、通信によって定義されるチェーンの順番でシーケンシャルに行われる。第1のクラスタは第1のマクロブロックの処理タスクを受信し、第2のクラスタは第2のマクロブロックの処理を受信するといった具合に第4のクラスタまで行われる。第1のクラスタは、5番目のマクロブロックにおいてチェーンでつながれるという具合である。画像ブロックの全ての処理オペレーションが、割り当てられた4つのクラスタにマップされる。] [0070] クラスタでの実行は、次のようにローカルに行われる。DMAアクセスは、予測されたマクロブロックに対して予約される。マクロブロックの予測の初期化は、高解像度(HD)ページの均一なグリッドとして行われ、このグリッドは高さ/幅に比例しており、クラスタのメモリ容量に合わせて調整される。例えば、クラスタのローカルメモリの75%を超えて満たしてはいけない。進行中のローディングが予測されたマクロブロックラインを終了するとすぐに、DMA処理はメモリとタスクを担当するマネージャに警告する。主処理はローディングで並列に開始される。それでも、この処理が実際には、現在のブロックの処理領域で、即ちFx(xm)及びFy(ym)に基づいて実行されるだけである。これは、処理を実行するPEのためにローカルにデータを用意するメカニズム(当技術分野では一般に「フェッチ」と称する)によって確実に行われる。] [0071] 「フェッチ」メカニズムは、読み取り時にソースデータがまだ着信していない場合、タスクを無効にするだけであり、データが利用できるようになるまでそれは続く。4つのPEで並列に算出されるソース座標がまだ利用できない場合は、依存関係が解決されないためタスクマネージャによってタスクは停止される。当技術分野で公知の「ストールされた」状態である。算出されたソース座標が予測された拡大マイクロブロックを超過した場合、タスクマネージャは、割り当てられたメモリ領域のオーバーフローを理由にタスクマネージャに例外をアップロードする。この動作は、正規の変換にとって全く例外的である。したがって、この自動調節メカニズムでは、入力データの着信と並行して出力マクロブロックを生成する。エラーの場合もまた、必然的に管理される。] [0072] 主処理は当技術分野で公知の「バッファ」モードで使用されるメモリ領域を経由してDMA出力処理を並列に提供する。主処理は、変換/モーフィング計算の4つの処理オペレーションと、計算/処理対象の一対のポイント(x、y)を提供し、それらの処理の結果(u、v)を待機する。主処理はまた、変換の現在の制限値を提供することで、次のメモリマクロブロックの予測処理を与える。次のマクロブロックの予測処理では、マクロブロック制限値の前のデータと現在のデータを使用して予測を行う。例えば、導関数を外挿、又は必要に応じて第2の導関数を外挿することにより予測を行うことができる。しかし、画像のサイズとマクロブロックのサイズとの差を考慮すると、2つの外挿アルゴリズムの差はほとんど気付かない程度となる可能性がある。] [0073] 図7はブロック予測と変換アルゴリズムを示す。関数Fx及びFyによる(x、y)矩形ブロック80の一般的な変換は、結果的にソースの(u、v)ドメイン81になる。ボックス82は同じ(x、y)ドメインの前の変換から生じるリニア又は二次外挿によって予測されるXYエンベロープ矩形である。このため、このエンベロープ矩形の速度は各変換で評価される。二次矩形の場合は、このエンベロープ矩形の加速度が評価される。変換のソースポイントがクラスタのローカルメモリ内にくることが、かなり確かとなるように、この予測矩形の周囲にマージン83が取られる。これは強制的なものではないが、例外プロセスを回避できる。したがって、ロードされる最後の矩形の寸法は、データに依存する。しかし、X及びY寸法は実行される変換に応じて自由に変化し得るが、矩形の領域は、その部分定数のためにある。したがって、使用されるメモリは、クラスタ上で一定である。更に、考えられる最適化は、ロードされる追加データが破棄されず、隣接クラスタに転送されるようにすることにあり、これにより、中央メモリへの不要なアクセスが少なくなる。] 図7 [0074] タスクT1は、メモリブロックに対するDMAローディングタスクであり、隣接するクラスタに既に存在するデータを考慮して配置される。このタスクの依存関係は、画像の同期化、及びDRAMとの通信用のチャネルの可用性に関連する。第1のクラスタの場合、アプリケーションが起動するとすぐにタスクT1がアクティブにされる。他のクラスタで実行されているタスクT1は、その後ブロックが消費されると、アクティブにされる。前のGOで算出されたパラメータが使用される。第1の画像を処理するとき、T1はデフォルトのダウンロードパラメータを使用する。タスクT2はメインループ、即ち、モーフィング計算の分散タスクである。T2の依存関係は、T1によって提供されるローディングブロックのデータの可用性に影響される。タスクT3、T4、T5、及びT6は、モーフィング関数計算タスクである。これらは、ライン処理ごとの極値ペア(u、v)、xの最小から得られる極値のタスクT3、及びxの最大から得られる極値のタスクT6を提供することにより、XYエンベロープ予測バッファを与える。タスクT7は、矩形予測計算タスクである。データに関する依存関係は、T3及びT6によって提供されるデータに影響される。次のパスでタスクT1に対する予測矩形が提供される。] [0075] 図8はタイムチャートによって、クラスタの実行シナリオを示したものである。図8は簡略化されており、メモリからのパケットの単一転送を示すだけである。実際の実行の場合は、通信と実行との間に更にオーバーラップが生じる。] 図8 [0076] まず、タスク1は、想定される矩形のローディングをDRAMコントローラに要求し、t0の時点からt1の時点まで待機する。] [0077] 次に、DRAMコントローラは、t1の時点からt2の時点まで更にt2の時点からt3の時点まで、タスク1によって提供された情報を使用してDRAMにメモリブロックをダウンロードし、前後して種々のクラスタにブロックをディスパッチする。] [0078] その後t2の時点でデータがクラスタに転送されると、T1は制御権を得て、各データブロックのローディングを、依存関係の解決のためにタスクコントローラに、割り当てられたメモリブロックの更新のためにメモリマネージャにアナウンスする。これはt3の時点でT1から開始される2つの矢印によって表わされる。] [0079] これ以降、タスクマネージャがT2の実行を設定する。タスクT2は、一対のポイント(u、v)の計算をタスクT3、T4、T5、及びT6に分散する。] [0080] 次に、タスクマネージャは、タスクT3、T4、T5、及びT6をPEで実行すべきタスクとして設定する。4つのフリーなPEがタスクに割り当てられており、タスクマネージャは、各タスクのメモリマネージャに、コンパイルツールによって関連付けられている仮想メモリとの通信のルックアップテーブル(「仮想メモリのマッピング」)を送信する。このステップは、PEがフリーである場合はずいぶん前に開始でき、PEがフリーになる限り開始可能である。例えば、タスクマネージャにおいて、PE1上のT2からの細い矢印は、PE1上でスケジュールされたT6に戻る。] [0081] したがって、メモリマネージャはタスクごとに現存するデータを使用してローカル変換テーブルを構築し、タスクマネージャによって選択されたPEにそのテーブルを送信する。これは、メモリマネージャから始まる矢印によって示され、t3の時点の直後、メモリ1に進む。タスクT3/T4及びタスクT5/T6にそれぞれ対応するメモリ2及びメモリ3への全く同様の矢印は、図8の簡略化につき、図示していない。図8のタイムチャートにおいてメモリマネージャから出てメモリへ進む矢印は、メモリマネージャからメモリへの実際の信号と一致しないことに注意されたい。それらは、メモリマネージャのアロケーションテーブルの更新に対応するだけである。] 図8 [0082] 同時にタスクマネージャは、選択された各PEにタスクの開始順序を提供する。メモリマネージャによってコードの配置が提供されるとすぐに、クラスタのローカルメモリにコードの開始がロードされ、実行が開始される:ループの開始、タスクT3、T4、T5、T6によるFx及びFyの計算の起動、その起動はt3の時点の後、並列に行われる。] [0083] T2においてペア(u、v)の計算が終了すると、後続の実行はソース画像の座標にアクセスする。以下のケースが発生する。 ●データ項目はクラスタのローカルメモリ内に存在する。操作されるには、データ項目が、その処理に割り当てられたPEによってアクセスされる必要がある。PE変換テーブルの状態に応じて2つのケースが発生し得る。 ○ PEのローカル変換テーブルがすでに更新されている:PEはそのテーブルへのアクセス方法を把握しているので、データ項目を操作することにより、それに割り当てられた処理を実行することができる。 ○ PEのローカル変換テーブルが更新されていない:PEはデータ項目へのアクセス方法を把握していないので、PEのローカル変換テーブルの更新内容を返送するメモリマネージャに情報項目が送信される。図9は、ts及びts(の2つの時点の間でのPE1の一時停止時間に相当する期間をタイムチャートによって表す。この時間はその変換テーブルを更新するのに必要である。 ● データ項目がクラスタのローカルメモリ内に存在しない。ただし、最初に、ローカル変換テーブルが更新されていない場合に、これは前の場合と同じように発生する:PEはメモリマネージャに要求を送信する。次いで、2つの予備の場合が区別され得る。 ○ データ項目は、タスクマネージャによってタスクの構築に提供されるデータに従って、クラスタ上で予想されるデータの一部を形成する。PE上で実行するタスクが無効になり、スタンバイ状態でタスクT1からのデータを待機していることを示すデータ項目が、メモリマネージャによってタスクマネージャにディスパッチされる。図10は、T3の実行の一時停止の最小時間に対応するtsとts’との間の期間をタイムチャートによって表す。 ○ データ項目が、エンベロープ予測タスクT7によってクラスタで予想されるデータの一部を形成しない:無効なメモリアクセスの場合、メモリマネージャによってタスクマネージャに例外がアップロードされる。タスクマネージャはこのイベントでタスクT1’を起動し、欠測データ項目とその周辺をロードする。タスクT1’は図示していない。] 図10 図9 [0084] その後、ソースポイントはタスクを生成するクラスタのローカルメモリに格納される。各ラインの最後で、タスクT2は(u、v)の現在のラインの極値を生成することで、タスクT7を与える。全てのライン又はいくつかのラインについて、タスクT2が極値の中間生成信号をディスパッチすることにより、T7は新たに生成されたデータでその実行を継続することができるようになる。] [0085] タスクT7は、T1とT2との間の場合と同じ原理に従って、T2の少なくとも1つのイベントを待機する。極値に加えて、前の画像の極値を使用して新たにロードする矩形を計算するが、実際には二次計算用に更に前の画像の極値を使用する。タスクマネージャに余地がある場合、即ちPEがフリーである場合、タスクは定期的にセットされ極値のペアの着信ごとに再実行される。ブロックごとに一度、タスクT6は、今後のローディング予測を作成し、ブロック処理イベントの最後をディスパッチする。] [0086] DMAタスクT8はT3、T4、T5、及びT6の生成バッファを、この4つのタスクの4つ1組のイベントの着信と合わせてマージする。このタスクは、宛先画像の更新内容をDRAMコントローラに送信する。このタスクは未使用のソース画像データをリスト内の後続のクラスタに送信する。それらのクラスタは、処理オペレーションのためにソース画像データを必要としているからである。] [0087] 依存関係によれば、タスクの終了はT1から始まる必要があるが、タスクT1’は滅多に出現しないことが分かっている。次に、処理オペレーションの問題とローディングのランダムで予測できない変化とに依存する順番に従って次にタスクT3、T4、T5、及びT6を追従する。その後、ローカルデータのみに関する、処理が短いT2及びT7を追従する。最後に、ブロックの処理の最後を示すタスクT8(図示せず)をたどる。タスクマネージャは、T7の最後から新しいブロックでT1を再起動できる。] [0088] タスクマネージャは以下の中の様々な要素で構成されている。 ●タスクごとに、タスクの起動に必要な最低限の依存関係のリストと、クォータのオーバーフロー又はデータを待機するスタンバイ状態等、実行を条件付けするイベントと、操作対象の仮想メモリ空間の記述子(オプション)とを含むタスクのリスト。 ● 次のタスクを割り当てるためにタスクマネージャによって使用可能な仮想PEのリスト。必ずしもPEを物理的に識別しなくてもPEの可用性との関連でPEの割り当ての物理的な識別がPEの管理手段によって管理されるので、このリストは仮想的なリストと呼ばれる。 ● すべての前提条件を満足する、実行準備の整ったタスクのリスト。 ● 実行準備の整ったタスクを、クラスタ上で利用可能な対応するPEと調和させるスケジューラ。最適なスケジューリングポリシーは、一般にはアプリケーションの分野によって決まる。例えば、クリティカルなタイムリアルスケジューリングは、有利には、最も期限が迫っているタスクを優先的にスケジュールするEDF(「最迫期限優先」)スケジューリングアルゴリズムに基づいたスケジューリングポリシーを使用する。制約が緩いマルチメディアシステムの場合は、コストのあまりかからないリニアタイムスケジューリングを調整するのが適切であると考えられる。このため、スケジューラはプログラム可能、再設定可能、又は少なくともパラメータ化可能であることが好ましい。] [0089] したがって、クラスタ上のタスクマネージャの主な役割は、PE及びタスク間の適合を管理することである。このタスクマネージャはまた、タスク間のチャーンも管理する必要があり、これには一般にデータの依存関係の様態と制御の様態という2つの様態が含まれる。大抵の場合、制御の様態は、正しく設定されたデータの依存関係によってシミュレーション可能であることに注意されたい。このように、タスクマネージャは、クラスタの中央要素の1つである。タスクマネージャは、DMAタスク等の種々のタスクから発信される、データの生成に関係する複数のイベントを受信する。ただし、タスクマネージャはまた、メモリマネージャから発信された、データを待機するスタンバイ状態にあるタスク又は使用可能なメモリ空間を示すイベントを受信する。更に例外的に、これらのイベントは割り当てられたメモリクォータを超えているタスクを示す。後者の場合、タスクマネージャの役割は、クォータ超過の原因となったタスクを可能ならば無効にすることにより、問題の制限を模索することである。次いで、第2の例示的なアプリケーションで、この様態をフロー制御と共に詳述する。] [0090] クラスタのローカルメモリ空間はメモリマネージャによって管理される。メモリマネージャは、PEでのタスクの実行を可能な限り透過的に許可する必要がある。本例では、メモリマネージャはチップ上に収まらず、ましてやクラスタにも収まらない高解像度画像を透過的に使用できるようにする必要がある。このために、メモリマネージャは、仮想メモリとクラスタのローカルメモリ内のタスクとの間のやりとりをマッチさせる、データ生成と使用テーブルとを必要とする。メモリマネージャはまた、タスクの支援を必要とし、タスクはデータを生成又はクラスタのローカルメモリに格納されたデータの使用を終了するときに、クラスタマネージャに信号をディスパッチすることにより、その旨を知らせる必要がある。このために、例えば特殊な命令をタスクのコードにコンパイルツール又はプログラマによって挿入し得る。また、PEのメモリ変換テーブルの提供及び更新を行う必要もある。前に示したモーフィングアプリケーションを実行するシナリオでは、メモリマネージャとクラスタの残りとの対話を以下のように合成することができる。 ● まず、種々のタスクが起動される:要求されたデータをタスクT1がまだ受信していない場合は、クラスタのレベル及びタスクT2〜T6のレベルの変換テーブルに、予測ブロックのデータは与えられない。それでも予測ブロック内でメモリアクセスが発生しない場合、メモリマネージャはタスクによって要求されたデータがまだ利用できない旨をタスクマネージャに知らせるだけである。タスクマネージャは、存在するスケジューリングポリシー及びタスクに従って、タスクをスタンバイ状態に保持することを選択するか、タスクを交換して他より緊急なものに対応して切り替えることができる。 ○ 要求されたアドレスが、タスクはアクセス可能であると推測される範囲の外にある場合、タスクマネージャに例外がアップロードされる。これがソース画像へのアクセスを伴う場合、例外手順ではローディング予測エラーを管理する必要がある。他のケースでは、実際にエラーを伴うと、そのように処理される。タスクマネージャレベルでこれを管理する方法は、そのプログラム可能であるレベルによって決まる。これはタスクマネージャの例外プログラムとしてプログラムされ得るか、単に例外ローディングタスクT1’を起動する信号として処理され得る。 ● 時間T1でデータブロックが生成されるたびに、メモリマネージャにその旨が通知される。図11において時点t3付近のタイムチャートによって詳細に示すように、メモリマネージャは以下の処理を行う。 ○通信に応答してブロック1の割り当てを解除する。これについては図11の時点t3で「メモリ1−ブロック1」の「Com.Buf.」によって示す。 ○ 通信に対して新しいブロック2を再度割り当てることで、通信チャネルに関する1つの損失を補償する。これについては図11に「メモリ1−ブロック2」によって示す。 □ この再割り当てが失敗した場合、タスクマネージャに例外信号がアップロードされ、通信がエラー状態にあることを信号で伝える。 ○消費タスクT2〜T6にブロックを割り当てながら、タスクごとにこのデータ項目のメモリクォータを超過していないことを確認する。このメモリクォータを超過している場合、ネットワーク伝送チャネルを無効にするためにタスクマネージャに信号がディスパッチされる。超過していない場合、メモリマネージャは実施形態を選択する際、以下のことが可能である。 □ タスクマネージャに系統的に警告を出して、タスクT2〜T6についてローカル変換テーブルを更新する。 □ タスクによって要求された全てのアドレスがアドレス変換テーブルに反映されるのを待って、対応するタスクの再起動が可能である旨をタスクマネージャに信号で伝える。この実施形態は最も効果的であり、これが可能な限り好ましい。 ○ メモリマネージャはまた、タスクT7のためにT2の一部でデータ生成信号を受信し、T1によってロードされたデータのブロックに対して使用終了信号を受信する。したがって、タスクT2〜T6がすべて、所与のブロックについて使用終了信号をディスパッチした場合、この信号をディスパッチしたタスクのラベルと、これらのデータを使用するタスクのラベルのリストの内容との比較により、メモリマネージャは、他のデータによって再使用されるよう、対応するクラスタのローカルメモリ空間を部分的に解放することができる。 ○ データがT1によって生成されるタスクT2〜T6の場合と同様に、変換されたブロックの極値の生成と並行してタスクT7をアクティブにすることができる。 ● 目的の画像の生成と並行して、タスクT8はNoCを介してDRAMにデータを転送し、これによって再使用可能になったローカル結果のブロックを解放する。 ●オプションとして、データを早期にロードするためのメカニズムである当技術分野で公知の「プリフェッチ」フェーズにてロードされた余剰なデータは、後続のクラスタに転送することができ、これによって後続のクラスタは、必要とするデータの一部を取得するのにDRAMを通過しなくても済むようになる。] 図11 [0091] 本発明に係る超並列アーキテクチャのデータによって高度に指示されるモーフィングアプリケーションを実行するためのメカニズムについて説明した。かかるコンテキストで潜在的な並列性を適切に使用することは非常に難しいが、それは積極的、且つ効率的な「プリフェッチ」メカニズムによって達成可能である。「プリフェッチ」予測エラーボックスは、実施するのが容易な例外プロシージャによっても考慮される。データへのアクセスは並列アーキテクチャの基本的なポイントであり、本発明によるアーキテクチャに対して実行モデルで特に発展される。] [0092] 図12、13、及び14は、MPEG−2復号化アプリケーションの例示的な実行を示す。今日、MPEG−2復号化は、難しいアプリケーションではなくなった。MPEG−2復号化には、特殊なプロセッサは必要ないが、当技術分野で公知の「Full HD」画像を伴う場合、モノプロセッサフレームワークに扱いにくいアプリケーションが残ったままである。そのアプリケーションは代表的なデータフロー逐次処理オペレーションであるので、特に注目に値する。更に、そのアプリケーションは、増殖するビデオストリームを送信する、将来的に不可避なアプリケーションとなるであろう。したがって、MPEG−2復号化は、来るべき埋め込みシステムの重要な分野の例示的な産業向けアプリケーションである。] 図12 [0093] タスクチャートでは、図12はMPEG−2デコーディングの代表的なタスクの分割を示す。このチャートは重要なデータフローの側面を伴うモデルを実際に示し、このタイプの処理オペレーションに対する本発明によるアーキテクチャの実現の分析を可能にする。可変長のデコーディングタスク90、マクロブロックのデータリシェーピングタスク91、量子化タスク92、逆離散コサイン変換タスク93、飽和タスク94、モーションベクタデコーディングタスク95、輝度モーション補正タスク96、赤色クロミナンスのモーション補正タスク97、青色クロミナンスのモーション補正タスク98、及びカラースペースの凝集と変換タスク99を示す。本例では、クラスタが4つのPEからなると共に、タスクがPEに静的に割り当てられるものと想定する。この想定は、従来技術の専用のデコーディング又はエンコーディングシステムで行われているものと近い。提案するプラットフォームでのインテリジェントな実現ではない。図12のタスク及びクラスタ1、2、3の間でデータを転送するためのDMAタスク等の基本的なタスクは以下のように分散される。 ● クラスタ1: ○ タスクTDMAI1C1:MPEG−2ストリームのクラスタ1へのDMAインポート。 ○ タスクT1C1:可変長のデコーダ。 ○ タスクT2C1:マクロブロックのデータのリシェーピング。 ○ タスクT3C1:量子化。 ○ タスクT4C1:モーションベクタデコーダ。 ○ タスクTDMAO1C1:クロミナンスモーションベクタのDMAエクスポート。 ○ タスクTDMAO2C1:輝度モーションベクタのDMAエクスポート。 ○ タスクTDMAO3C1:量子化されたマクロブロックのDMAエクスポート。 ● クラスタ2: ○ タスクTDMAI1C2:クロミナンスモーションベクタのDMAインポート。 ○ タスクTDMAI2C2:量子化されたマクロブロックのDMAインポート。 ○ タスクTDMAI3C2:リファレンスクロミナンスマクロブロックのDMAインポート。 ○ タスクT1C2:逆離散コサイン変換。 ○ タスクT2C2:飽和。 ○ タスクT3C2:モーション補正、赤色クロミナンス。 ○ タスクT4C2:モーション補正、青色クロミナンス。 ○ タスクTDMAO1C2:赤色クロミナンスのDMAエクスポート。 ○ タスクTDMAO2C2:青色クロミナンスのDMAエクスポート。 ● クラスタ3: ○ タスクTDMAI1C3:赤色クロミナンスのマクロブロックのDMAインポート。 ○ タスクTDMAI2C3:青色クロミナンスのマクロブロックのDMAインポート。 ○ タスクTDMAI3C3:輝度モーションベクタのDMAインポート。 ○ タスクTDMAI4C3:リファレンス輝度のマクロブロックのDMAインポート。 ○ タスクT1C3:赤色オーバーサンプリング。 ○ タスクT2C3:青色オーバーサンプリング。 ○ タスクT3C3:輝度モーション補正。 ○ タスクT4C3:カラースペースの凝集及び変換。 ○ タスクTDMAO1C3:デコード済みビデオストリームのDMAエクスポート。] 図12 [0094] クラスタ内の通信フレームワークは、例えばクラスタ1のTDMAO2C1とクラスタ3のTDMAI1C3等のデータエクスポートタスクとデータインポートタスクの2つのタスクを常に伴うことに注意すべきである。このため、2つのクラスタ間の通信チャネルは、ソースメモリ空間、DMAエクスポートタスク、通信リンク、DMAインポートタスク、及びデスティネーションメモリ空間によって定義される。これは、これら5つの要素のいずれか1つが欠けた場合、当該2つのクラスタ間に通信リンクがなくなることを示唆する。このため、メモリとネットワークのディメンショニングが正しいことを保証することが、マッピング/ルーティングツールの責務となる。これら要素のいずれか1つが欠けたことに起因する通信エラーの場合、エラーが検出され、例外が生成される。現在の文書では、この例外を管理するためのメカニズムに関する追加要素は提供しない。このようなエラーは、実際、システムのアプリケーションの分野に応じ、異なる処理オペレーションが必要となる。こうした想定に伴い、ビデオストリームをデコードするには、3つのクラスタが必要となる。このため、各クラスタでは、PEに4つのタスク、つまりPEごとにタスクが1つずつある。この構成はストリーム処理オペレーションにとっては一般に行われているもので、極力処理オペレーションが静的にマッピングされ、当該技術分野では周知である仮想「パイプライン」に沿ってプロダクション/コンサンプションの作用により負荷のバランスが取られる。尚、仮想「パイプライン」はストリームの処理を示す。以降に説明するように、このタイプの規制は本発明によるアーキテクチャの処理スキームで完全に可能である。更に、これはこれらのクラスタ及びその他のクラスタで並行して動作するその他のアプリケーションのまとまりについて考える可能性を排除し、更には大きな画像に対してクラスタのPEのパワーが不十分であると判明した場合にクラスタの複数のトリプルでの複数のデコーダについて考える可能性を排除するものではない。にもかかわらず、入力及び出力での処理オペレーションの順番を保証するためのタスクが必要である。] [0095] チャートの図13に示すタスクの構成によって定義されるソフトウェア「パイプライン」に沿った実行は以下のように要約できる。 ●TDMAI1C1がストリームをその到着と並行してクラスタのローカルメモリにロードする。 ● T1C1は事前パケットの数に関してクォータを有し、これにより、事前フレームの数が十分であると(おそらく通信レイテンシーに応じて3〜5フレーム)直ちに転送を停止できる。管理手段で可変サイズのブロックによる割当が許容されている場合、クォータを細かくディメンショニングできる。そうでない場合は、クォータは固定サイズのブロックの倍数である必要がある。 ● 同様に、T2C1とT4C1はマクロブロックの数及び飽和前のデコードされていないベクタの数についてクォータを有する。この階層に達した場合、タスクマネージャはプロデューサタスク、即ちT1C1を無効にする。自動的にブロック解除されない状況の場合、既に無効になっているタスクT1C1はTDMA1C1によって提供される入力データも消費しないため、通信は無効となる。クォータが正しく評価された時点から、クォータを制御するための前述のメカニズムにより、処理オペレーションの実現の重荷になることなく、暗黙的な方法でデータストリームの規制を実行できる。クォータが正しくディメンショニングされなかった場合、クォータの過負荷が原因で、メモリ割当又は通信の明示的なエラーを招く。この場合、パフォーマンスの低下のアンダーロードは容易に明らかである。コンパイル時にクォータを設定するだけで、通常の動作下でシステム自体が自身のロードバランシングを行うことは当然のことと思われる。 ● これを当然のこととみなすと、アプリケーションの振る舞い自体は何ら問題を提起するものではない。タスクのデータの準備が整わない限り、そのタスクはスタンバイ状態に置かれるか、又はシステムに他のアプリケーションが含まれる場合及びスケジューリングポリシーで許容される場合は、スイッチングされる。1つ又は複数の消費タスクが遅過ぎて処理できない場合を除き、データが整うと同時に、処理オペレーションを実行し、出力データを生成できる。1つ又は複数の消費タスクが遅過ぎて処理できない場合、モーフィングアプリケーションで説明するように、消費タスクのメモリクォータの違反により、タスクマネージャによりプロデューサタスクは一時停止される。 ● 到着時にいくらかのメモリが存在する限り、通信チャネルを定義するDMAタスクに注目することで、クラスタ間のデータの受け渡しが行われることは明白である。このチャネルは処理オペレーション間の通信のルーティングに関連するもので、チップ上のアプリケーションの処理オペレーションのマッピング/ルーティングに起因する。このため、通信はオリジンクラスタのローカルメモリに格納されたソースデータを伴う。また、DMA送信タスクも通信は伴う。更に、ルーティングによりその通信用に帯域幅が確保されているNoCのチャネルも伴う。最後に、メモリマネージャによって動的に確保されているデスティネーションクラスタ上のDMA受信タスク及びそれに関係するメモリを伴う。これら4つの要素の結合により、静的にバインドされ、決定的である時間及びレイテンシーで通信を確立できる。このプロパティは、たとえMPEG−2のデコーディングには当てはまらなくても、数多くのアプリケーションのケースにとって重要である。 ●所与のコンシューマに対するクォータ超過でデータプロデューサを無効にするための機能により、チェーンの途中でNoCを経由するデータの転送があった場合等、タスク依存チェーンを選択的に、必要とする以内で無効にできる。再開も自動で行われ、あらゆることがコンパイルチェーンによるメモリクォータの制御に依存する。図14のタイムチャートの例に示すように、このディメンショニングに不具合がある場合に問題を検出するための例外メカニズムが実現される。 ○ T1C3による赤色クロミナンスのオーバーサンプリングが時点tqでクォータ超過であると仮定する。これはかなり長い操作であり、更に、特にビデオ処理チェーンの最後で、かなりの量のメモリを要求する可能性がある処理がこのクラスタにロードされる。メモリマネージャがタスクマネージャに通知し、タスクマネージャがDMA転送タスクTDMAI1C3を無効にするような状況を考案し得る。DMA転送処理を伴うため、クラスタ2のタスクマネージャにメッセージがディスパッチされ、異常が通知される。対応するNoC通信を図14に示し、これらは通信100、101及び102である。 ○ クラスタ2のタスクマネージャがDMA送信タスクTDMAO1C2を無効にする。 ○ 無効が継続する場合、タスクTDMAO1C2は時点tq’でクォータ超過に進む。この場合、メモリマネージャがタスクマネージャに通知し、タスクマネージャはプロデューサタスクT3C2を無効にする。このレベルでは、赤色クロミナンスを処理するためのローカルチェーンだけが影響を受け、その他は名目上動作を続行する。 ○ 無効がまだ緩和しないとみなされた場合、T3C2は時点tq"でクォータ超過に進むこともでき、これは2つの非排他的なシナリオを通して行われ得る: □モーションベクタのクォータ超過:メモリマネージャはクォータ超過の発生源をタスクマネージャに示し、タスクマネージャはDMA入力タスクTDMAI2C2を無効にする。クラスタ1のタスクマネージャにTDMAO1C1を無効にするためのメッセージが伝達され、これによってT4C1を無効にし得る。 □ 赤色クロミナンスに対するデコード済みブロックのクォータ超過:メモリマネージャはクォータ超過の発生をタスクマネージャに通知し、タスクマネージャはプロデューサタスクT2C2を無効にする。このため、最小依存チェーン、即ちサイクルが削除される逆依存グラフから推定された依存ツリーで構築されたチェーンを無効にするためのメカニズムが設計される。 ○ タスクT1C3が時点trでクォータ超過でなくなると直ちに、メモリマネージャはタスクマネージャに通知し、タスクマネージャはタスクTDMAI1C3を再度有効にする。タスクマネージャはクラスタ2のタスクマネージャにメッセージをディスパッチし、クラスタ2のタスクマネージャはTDMAO2C2を再度有効にする。クォータ超過の消滅と並行して、ローカルメモリマネージャはタスクマネージャに通知し、タスクマネージャは無効が発生したのと同じ状況下でタスクを再度有効にする。このため、「パイプライン」の平衡は、単純なルール及びメモリクォータの正しいディメンショニングの想定だけで、当然出現するプロパティである。 ○ クォータが十分にディメンショニングされていない場合、メモリマネージャはこれを簡単に検出できる:欠陥のある状況が発生するまで、入力側で各データ項目に提供されている動的割当が名目上行われる。欠陥のある状況が発生すると、メモリマネージャは行われている要求に対してメモリの割当を試行するものの、どこか別の場所にあまりに多くのメモリが割り当てられているために、それを満たすことができない。このため、メモリマネージャはタスクマネージャに例外をアップロードしなければならなくなる。このタイプの例外の処理はアプリケーションの分野に大きく依存するため、本特許出願では指定しない。例えば、ディメンショニングプログラム等のプログラムの異常を検出するために使用できる。しかし、ノンクリティカルなアプリケーションに対して所与のメモリクォータを自動的にオンライン調節するためにも使用できる。 ● アプリケーションの残りの実行では特別な問題を提起せず、2つの例示アプリケーションで既に説明した内容に基づき簡単に推定できるはずである。] 図13 図14 [0096] 本発明によるアーキテクチャの実行モデルはストリーム処理タイプのアプリケーションにも適していることは明白である。この特定のフレームワークでは、このタイプの処理における専門家にとっては当然である、データフローのバランスを動的に取るための単純なメカニズムを採用する。これは、モーフィングのフレームワーク内で見てきたように、このタイプの実行はより動的なタスクモデルと同じように管理できるため、本発明によるアーキテクチャ及びその実行について非常に優れた柔軟性が判明している。この実現で理解すべき重要なことは、提案するアーキテクチャとその実行モデルは同じアプリケーション内にネストされた2つのタイプのモデルを効率的に、即ち並列性を最適に活用して、実行できることである。これは特に、独自性を構築するものである。データフローモードのサポートがクラスタ内部だけでなく、クラスタ間でも行われることに注目することが重要である。データの欠如又はメモリの飽和を管理するメカニズムの描写がタスク及びメモリマネージャに対する重圧を前もって知らせる。但し、このようなモードの特定の管理を階層的に見ることができる。したがって、スタンバイ状態でデータを待機し、使用可能なメモリスペースを待機する等の、このような機能の一部分をPEにオフロードできる。この場合、タスクマネージャは2つのタイプのマネージャに分割される。第1のタイプは各PEに対応するもので、データフローモードのサポートを保証する。タスクの割当とその考えられる割り込みを担当する第2のタイプは中央タスクマネージャと呼ばれる。中央タスクマネージャは、スタンバイ状態のタスクに割り込むか否かの決定を担う。その一方、中央タスクマネージャへのリソースを管理するポリシーを選択することも可能である。したがって、中央マネージャが関与しない、データフローモードで実際にオペレーションの処理を行うことができる。] [0097] もう1つの実行例、つまりハフ変換に基づく画像処理のアプリケーションの例を、並列化を多用する非常に動的な制御フローに与えることができる。ハフ変換の目的は、直線の線分、円、又は楕円等の単純な幾何学的図形の輪郭を画像の中から見つけることである。画像処理の分野におけるこうした従来のアプリケーションは並列化が困難である。この困難は、結果空間が必ずPE間で共有されることに関係する。更に、このアプリケーションは多くのメモリ空間を必要とする。ハフ変換を行うには、輪郭の画像が完全にトラバースされ、トラバースの優先順はない。各輪郭点で、この点を通ることができる直線のセットを算出する必要がある。それぞれの直線は公式y=ax+bに従い、aとbの2つの値によってパラメータ化される。したがって、パラメータスペースは、それぞれの点が(a,b)のペアを示す箇所で定義される。このため、画像の輪郭点を通過できる直線のセットはパラメータ空間の直線によって示される。パラメータ空間のこのような直線の集積で集合点が識別される。このような点それぞれが開始画像における線の存在を示す。こうした点によって、そこに関係付けられているパラメータをリカバリすることで、このような直線の位置を確かめることができる。輪郭画像の各ピクセルはパラメータ空間の直線に関係付けられているため、このアルゴリズムの並列化は問題が多い。入力画像を簡単に分散できれば、本質的に結果空間が共有される。画像のサブパートで各PEを動作させ、これらサブ画像それぞれについてパラメータ空間を生成することは当然可能である。そのため、このような空間全てを集約して、1つだけにするための追加タスクが必要となる。このソリューションでは、N個のPEで並列化を行うには、最低N+1個の画像を格納する必要があるため、必要となるメモリの量の問題が提起される。また一方、このような選択肢は、高度のシリコン効率が求められる組み込みシステムのコンテキストに沿うものではない。結論としては、このアルゴリズムは共有メモリを伴うアーキテクチャで実現できるものの、この並列化により多くのメモリ競合をもたらし、このためかなり弱い並列化に制限しなければならない。分散メモリを伴うアーキテクチャでは、メモリ空間をオーバーディメンショニングしなければならない。一般性における問題では、クラスタのメモリ容量がアプリケーションで必要とされるものを実際に下回るフレームワークの検討が要求される。このフレームワークは、従来の統合技術及びビデオ処理要件に沿うものである。以下で説明するように、本発明により、開始画像とパラメータ空間を様々なクラスタに同時分散させることにより、更に効率的にハフ変換を並列化できる。各クラスタは、画像の領域の読み取り、及びパラメータ空間の一部の書き込みを担う。例えば、矩形の形のメッシュを作成することで、この分割を行うことができる。アルゴリズムは機能上各クラスタで2つの部分に分割される。] [0098] アルゴリズムの第1の部分は、クラスタが担う画像の領域のピクセルの読み取りと輪郭点の検索である。検出された各輪郭点について、クラスタはこの点によって修正されるパラメータ空間の部分を算出する。直線の検索の場合、開始画像の点がハフ変換のフレームワーク内の直線になることが判明している。この直線のパラメータを使用することで、ハフ空間で修正される部分を確認できる。このため、クラスタは修正される領域を担当するクラスタを見つける必要がある。この識別が行われると、DMAタスクがアクティブとなり、パラメータ空間の領域を直線のパラメータで更新する旨の要求が該当するクラスタにディスパッチされる。潜在的には、各クラスタはその他の全てのクラスタにデータをディスパッチできるが、処理時に実際の受信者の算出が行われる。] [0099] アルゴリズムの第2の部分は、更新要求の受信に関するものであり、これは潜在的に全てのクラスタから生じ得る。それぞれの要求に対し、クラスタは更新を行う前に更新すべきパラメータ空間の部分を中央メモリにリカバリし、その後新しいパラメータ空間を中央メモリに再度書き込む必要がある。このレベルでは所与の数の最適化が可能であり、とりわけそれ以降の要求に役立つことができるパラメータ空間の一部をローカルメモリに保持できる。このアルゴリズムの部分は、DRAMコントローラとのインターフェイスの機能により、2つの形を取ることができる。第1の実現方法によれば、対象の領域をリカバリでき、この場合、その領域の全てのピクセルが修正される。第2の実現方法によれば、より大きな領域(オプションで、クラスタが担当する領域全体)をリカバリでき、この場合、パラメータの直線に属するか否かでピクセルを更新できる。効率を考えると、第2の実現方法では、より大きな対象の領域のリカバリをマスクするには、所与の数の要求が蓄積されるのを待機する必要がある。要約すると、対象の細かい領域をリカバリすることにより、単純な更新処理と複雑な通信の結合をもたらすか、単純な通信とより複雑な処理を有するかのいずれかが可能である。] [0100] ハフアルゴリズムの並列化がシステムの通信機能と非常に結合することが明白である。クォータ管理又はタスク同期化等、2つの上記アプリケーションで既に示したメカニズムはハフ変換についても有効なままである。その一方、モーフィングとMPEG−2デコーディングの2つの上記アプリケーションに関して、所与の数の差別化要素が存在する。第1の差別化要素は、所与の通信の受信者が処理中に計算されることである。通信の受信者を実行中に計算しなければならない場合、DMAプログラムはパラメータを取得し、その処理を調整できなければならない。既に前述したように、DMAはプログラムを実行し、DMAタスクはPEのタスクと同じメカニズムによって管理される。したがって、DMAタスクはパラメータよりも高い優先条件を有し、現在のケースではこれは受信者である。このため、パラメータが判明した時点で、DMAプログラムはこれをメモリに読み込み、通信を調整できる。このメカニズムは前述したデータフローモードもサポートする。したがって、実行中に受信者が変更になった場合、DMAプログラムはこれを次々にメモリに読み込む。これらのパラメータがまだ使用可能になっていない場合は、そのタスクはスタンバイ状態に置かれ、タスクコントローラによって管理される。また、受信処理を調整できるよう、データ項目をディスパッチするクラスタをコンシューマが識別する必要が生じ得る可能性があることも注意すべきである。これはDMAブロック内で直接行うことも、又はリソースマネージャを経由して行うこともできる。] [0101] 第2の差別化要素は、中央メモリに含まれるデータのリカバリを処理中に並列化できることである。これは、実際、予測された画像ブロックの「プリフェッチ」に対する「モーフィング」アプリケーションで説明したものと同じケースである。別のクラスタへのプログラム化された転送との大きな違いは、パラメータが一般化されることである。更に、中央メモリとのインターフェイスは様々な形をとることができ、可変的な機能を伴う。したがって、「中央メモリへのアクセスのクラスタ」を提案できる。その動作方式は、システムの残りの部分と類似の原理に基づき、特にクラスタの動作方式に基づく。又、マネージャとローカルメモリも使用する。これにより、中央メモリ内の対象の領域の要求では、まずクラスタによるパラメータのディスパッチから始めることができる。これらのパラメータが使用可能であると、DMAタスクがアクティブになり、中央メモリへの転送が行われる。更に踏み込み、中央メモリのクラスタにメモリ空間の部分の権利の管理を許容するユニットを提供し、これによって実行モデルのレベルで完全に均質なビューを有することさえ可能である。また一方、対象の領域によるこのタイプのアクセスが所与のアプリケーション分野で主流である場合、中央メモリのDMAにこのモードを取り込む構造を特殊化することも可能である。]
权利要求:
請求項1 タスクを並列に実行する複数の処理ユニットと通信ネットワークとを備えるシステムであって、−前記処理ユニット(40〜43)が複数のユニットクラスタ(Cl0〜Cl15)に編成され、各クラスタはローカルメモリ(44〜59)を備えており、−前記システムは各ユニットクラスタにタスクを静的に割り当てる手段を有し、この結果、アプリケーションの所与のタスクは前記アプリケーションの実行ごとに同じユニットクラスタで処理され、−各ユニットクラスタは、処理ユニットのそれぞれにタスクを動的に割り当てるためのクラスタ管理手段(60)と、前記ローカルメモリ内に前記タスクを実行するための空間を有し、結果として、アプリケーションの所与のタスクは前記アプリケーションの実行ごとに同じ処理ユニットで処理されなくてもよく、前記クラスタ管理手段(60)が−前記タスクを管理するための手段(62)と、−前記処理ユニットを管理するための手段(64)と、−前記ローカルメモリを管理するための手段(63)と、−処理ユニットを伴う前記通信を管理するための手段(65)と、を有し、前記管理手段(62、64、63、65)が一斉に互いに連携して動作することを特徴とするシステム。 請求項2 各クラスタが備える前記ローカルメモリが、前記クラスタに専用となることを特徴とする請求項1に記載のシステム。 請求項3 前記処理ユニットのクラスタ(Cl0〜Cl15)はチップ(30)に配置され、前記ユニットクラスタがチップ(31)上のネットワークを介して互いに通信することを特徴とする請求項1に記載のシステム。 請求項4 中央メモリ(34)を備えることを特徴とする請求項1に記載のシステム。 請求項5 各ユニットクラスタにタスクを静的に割り当てるためのリンクをコンパイル及び編集するための手段を有することを特徴とする請求項1に記載のシステム。 請求項6 ユニットクラスタに割り当てられたタスクが別のユニットクラスタで生成されたデータを消費する必要がある場合、前記データが生成された前記クラスタ内でデータ送信タスクが実行され、前記データ送信タスクは、前記データが消費される前記クラスタ内で実行されるデータ受信タスクに前記データを送信し、結果として、前記データを消費する前記タスクが、同じ動的なリソース割り当てモードで、ローカルで生成されたデータしか消費していないかのように実行されることを特徴とする請求項1に記載のシステム。 請求項7 前記送信タスクと前記受信タスクとの間の通信に専用のメモリ空間が、関係する前記2つのクラスタのうちのいずれかのクラスタの前記ローカルメモリ内で予約されることを特徴とする請求項6に記載のシステム。 請求項8 前記送信タスクと前記受信タスクとの前記通信に専用の前記メモリ空間を飽和させないように前記送信タスクが一時的に中断されることを特徴とする請求項7に記載のシステム。 請求項9 前記送信タスクのスループットがコンパイル中に決定されることにより、前記受信タスクの空間の飽和の可能性がないように前記受信タスク用の十分な空間が前記ローカルメモリ内に割り当てられることを特徴とする請求項6に記載のシステム。 請求項10 前記データ送信タスク及び前記データ受信タスクが、前記データが生成される前記クラスタと前記データが消費される前記クラスタにそれぞれ静的に割り当てられることを特徴とする請求項6に記載のシステム。 請求項11 前記送信タスクと前記受信タスクが、前記クラスタ内の前記ローカルメモリとデータを直接やりとりする専用の実行手段によって実行されることを特徴とする請求項6に記載のシステム。 請求項12 前記データが消費される前記クラスタが、まだ使用できる前記メモリ空間に応じて前記データを生成する前記クラスタにクレジットをディスパッチし、前記データを生成する前記クラスタが受信した前記クレジットに応じて前記データ送信スループットを調整することを特徴とする請求項7に記載のシステム。 請求項13 前記送信タスクと前記受信タスクとの間の前記通信に専用の前記メモリ空間が所与のクォータを超えて使用されると、前記受信タスクを管理する前記クラスタ用の前記クラスタ管理手段(60)が、前記送信タスクを管理する前記クラスタ用の前記クラスタ管理手段(60)に割り込み信号をディスパッチし、前記メモリ空間がクォータ以内で使用されるようになると再開信号をディスパッチすることを特徴とする請求項7に記載のシステム。 請求項14 前記ローカルメモリを管理するための手段(63)が、前記ローカルメモリによって形成される前記アドレス指定空間を断片化しないように、前記ローカルメモリ内の空間を一定の細分レベルで割り当てることを特徴とする請求項1に記載のシステム。 請求項15 前記ローカルメモリを管理するための手段(63)が、前記ローカルメモリ内の空間を可変の細分レベルで割り当てることを特徴とする請求項1に記載のシステム。 請求項16 前記タスクを管理するための手段(62)が、−実行の前提条件を満足する前記割り振り可能なタスクを判別するために前記タスクを選択するためのモジュールと、−前記処理ユニットに前記割り振り可能なタスクを割り当てるためのスケジューリングモジュールと、を有することを特徴とする請求項1に記載のシステム。 請求項17 前記タスクを選択するためのモジュールが、並列マルチタスクタイプの実行モードとデータフロータイプの実行モードにおいて同一時に前記実行の前提条件を満足する前記割り振り可能なタスクを判別することを特徴とする請求項1に記載のシステム。 請求項18 前記実行の前提条件が、処理オペレーションの優先順位、及び/又はデータの可用性、及び/又は生成された前記データを格納するためのメモリ空間の可用性、及び/又は前記クラスタのローカルイベント又はクラスタの外部イベントを含むことを特徴とする請求項16に記載のシステム。 請求項19 前記送信タスクはいくつかのユニットクラスタにデータを同時に送信することが可能であり、これによりいくつかの消費タスクに同じデータが同時に提供されることを特徴とする請求項6に記載のシステム。 請求項20 同一のユニットクラスタ内でいくつかの送信タスクが同時に実行可能であり、これによりいくつかの消費タスクに様々なデータが同時に提供されることを特徴とする請求項6に記載のシステム。 請求項21 前記システムがDMAタイプの送信タスク及び受信タスクの管理に専用の手段を有することにより、前記タスクを管理するための手段が過負荷にならないことを特徴とする請求項6に記載のシステム。 請求項22 少なくとも1つの入力/出力インターフェイス(35、36)を有することを特徴とする請求項1に記載のシステム。 請求項23 前記システムが、処理ユニット上で並列にタスクを実行することにより、モーフィングアプリケーションを実行可能であることを特徴とする請求項1に記載のシステム。 請求項24 前記システムが、処理ユニット上で並列にタスクを実行することにより、ハフ変換を実施するアプリケーションを実行可能であることを特徴とする請求項1に記載のシステム。 請求項25 前記システムが、パイプラインモードでタスクを実行することにより、MPEG復号アプリケーションを実行可能であることを特徴とする請求項1に記載のシステム。 請求項26 前記ローカルメモリ内の前記空間が、これらの空間の前記データを消費したタスク数のカウンタを使用して解放されることを特徴とする請求項14又は15に記載のシステム。 請求項27 前記ローカルメモリ内の前記空間が、これらの空間の前記データを消費した前記タスクのリストを使用して解放されることを特徴とする請求項14又は15に記載のシステム。
类似技术:
公开号 | 公开日 | 专利标题 US9965258B2|2018-05-08|Programming a multi-processor system US9753854B1|2017-09-05|Memory controller load balancing with configurable striping domains JP6571078B2|2019-09-04|メモリにアクセスするための並列処理装置、コンピュータにより実施される方法、システム、コンピュータ可読媒体 JP6495208B2|2019-04-03|ストリームに基づく演算を実装するための汎用複数コアシステムのための方法および装置 Gautier et al.2013|Xkaapi: A runtime system for data-flow task programming on heterogeneous architectures Singh et al.2013|Mapping on multi/many-core systems: survey of current and emerging trends US20180285726A1|2018-10-04|Neural Network Processor Incorporating Inter-Device Connectivity Warneke et al.2009|Nephele: efficient parallel data processing in the cloud Vajda2011|Programming many-core chips CN104115093B|2017-03-29|包括多个处理元件之间的功率和性能平衡的用于能效和节能的方法、装置和系统 US9430811B2|2016-08-30|Graphics processor with non-blocking concurrent architecture US20190026158A1|2019-01-24|Virtual vector processing US8949806B1|2015-02-03|Compiling code for parallel processing architectures based on control flow Rossbach et al.2011|PTask: operating system abstractions to manage GPUs as compute devices US9251103B2|2016-02-02|Memory-access-resource management US9946563B2|2018-04-17|Batch scheduler management of virtual machines Markovskiy et al.2002|Analysis of quasi-static scheduling techniques in a virtualized reconfigurable machine JP4255457B2|2009-04-15|エラー処理方法 US8533716B2|2013-09-10|Resource management in a multicore architecture KR100649107B1|2006-11-24|실시간 동작 수행방법 및 시스템 KR101248170B1|2013-03-27|멀티코어 아키텍처 내의 리소스 관리 US7234126B2|2007-06-19|Task concurrency management design method US5978583A|1999-11-02|Method for resource control in parallel environments using program organization and run-time support JP5752853B2|2015-07-22|グラフィックス処理ユニットにおけるメモリの共有 CN101685391B|2016-04-13|管理计算系统中协处理器的计算资源的方法和系统
同族专利:
公开号 | 公开日 EP2232368A1|2010-09-29| FR2925187A1|2009-06-19| WO2009077429A1|2009-06-25| EP2232368B1|2019-07-17| US9164807B2|2015-10-20| FR2925187B1|2011-04-08| JP6047747B2|2016-12-21| US20110093854A1|2011-04-21|
引用文献:
公开号 | 申请日 | 公开日 | 申请人 | 专利标题 JPH07311746A|1994-05-17|1995-11-28|Fujitsu Ltd|コンパイル処理装置| JPH08129492A|1994-11-01|1996-05-21|N T T Software Kk|資源排他チェックシステム及び資源排他チェック方法| JPH08235141A|1995-02-28|1996-09-13|Kofu Nippon Denki Kk|情報処理システム| JPH10161955A|1996-11-27|1998-06-19|Hitachi Ltd|ネットワーク通信方法| JP2002149425A|2000-10-30|2002-05-24|Microsoft Corp|参照カウントされたアイテムを高速参照するためのシステムおよび方法| JP2003108693A|2001-09-27|2003-04-11|Hitachi Ltd|サービス提供システム| JP2007306619A|2002-05-03|2007-11-22|Microsoft Corp|ビデオ画像を処理するコンピュータ実行方法及び記録媒体| JP2004110318A|2002-09-18|2004-04-08|Nec Corp|階層的分散処理システムおよび階層的分散処理方法| WO2005008978A1|2003-07-18|2005-01-27|Fujitsu Limited|送信主導型フロー制御装置| JP2005044361A|2003-07-25|2005-02-17|Internatl Business Mach Corp <Ibm>|システム・オン・チップ設計のための構成要素としての自己完結型プロセッサ・サブシステム| JP2005190277A|2003-12-26|2005-07-14|Internatl Business Mach Corp <Ibm>|解析システム、解析方法、解析プログラム、及び記録媒体| JP2005216283A|2004-01-30|2005-08-11|Internatl Business Mach Corp <Ibm>|シングル・チップ・プロトコル・コンバーター| WO2006121472A1|2005-01-10|2006-11-16|Quartics, Inc.|Integrated architecture for the unified processing of visual media| JP2008527545A|2005-01-10|2008-07-24|クォーティックスインク|ビジュアルメディアの統合処理のための統合アーキテクチャ| JP2006254450A|2005-03-08|2006-09-21|Centre National De La Recherche Scientifique|Communication node architecture in a global asynchronous network-on-chip system| WO2006132720A2|2005-06-02|2006-12-14|Motorola, Inc.|Method and system for parallel processing of hough transform computations| JP2008546088A|2005-06-02|2008-12-18|モトローラ・インコーポレイテッドMotorolaIncorporated|ハフ変換計算の並列処理のための方法およびシステム| JP2007207072A|2006-02-03|2007-08-16|Hewlett-Packard Development Co Lp|処理制御装置およびその方法|JP2013037290A|2011-08-10|2013-02-21|Canon Inc|情報処理システム、情報処理方法、及びプログラム| JP2016511853A|2012-12-20|2016-04-21|インテル・コーポレーション|Scalable computing fabric| US10805422B2|2017-08-23|2020-10-13|Micron Technology, Inc.|Memory device with a multi-mode communication mechanism|FR2792087B1|1999-04-07|2001-06-15|Bull Sa|Procede d'amelioration des performances d'un systeme multiprocesseur comprenant une file d'attente de travaux et architecture de systeme pour la mise en oeuvre du procede| US6467075B1|2000-03-24|2002-10-15|Nec Corporation|Resolution of dynamic memory allocation/deallocation and pointers| US7676788B1|2003-03-25|2010-03-09|Electric Cloud, Inc.|Architecture and method for executing program builds| US8028292B2|2004-02-20|2011-09-27|Sony Computer Entertainment Inc.|Processor task migration over a network in a multi-processor system| JP3944176B2|2004-02-20|2007-07-11|株式会社東芝|探索要求送信装置およびプログラム| US9178784B2|2004-04-15|2015-11-03|Raytheon Company|System and method for cluster management based on HPC architecture| JP4394650B2|2006-02-14|2010-01-06|エヌイーシーコンピュータテクノ株式会社|クレジットに基づいたフロー制御方法およびシステム| US20080052712A1|2006-08-23|2008-02-28|International Business Machines Corporation|Method and system for selecting optimal clusters for batch job submissions| US8205208B2|2007-07-24|2012-06-19|Internaitonal Business Machines Corporation|Scheduling grid jobs using dynamic grid scheduling policy|KR100817022B1|2006-11-15|2008-03-26|한국전자통신연구원|스타-메쉬 혼합형 구조를 갖는 온칩 네트워크 기반의동영상 디코더| EP2282264A1|2009-07-24|2011-02-09|ProximusDA GmbH|Scheduling and communication in computing systems| JP5452125B2|2009-08-11|2014-03-26|クラリオン株式会社|データ処理装置及びデータ処理方法| US10678744B2|2010-05-03|2020-06-09|Wind River Systems, Inc.|Method and system for lockless interprocessor communication| WO2011148583A1|2010-05-27|2011-12-01|パナソニック株式会社|バス制御装置およびバス制御装置に指示を出力する制御装置| US8984519B2|2010-11-17|2015-03-17|Nec Laboratories America, Inc.|Scheduler and resource manager for coprocessor-based heterogeneous clusters| US9552206B2|2010-11-18|2017-01-24|Texas Instruments Incorporated|Integrated circuit with control node circuitry and processing circuitry| US9069893B2|2011-03-23|2015-06-30|International Business Machines Corporation|Automatic verification of determinism for parallel programs| US9628535B2|2011-04-15|2017-04-18|International Business Machines Corporation|Data streaming infrastructure for remote execution in a constrained environment| US8627036B2|2011-09-12|2014-01-07|Microsoft Corporation|Memory management techniques| US8897355B2|2011-11-30|2014-11-25|Avago Technologies General IpPte. Ltd.|Cache prefetch during motion estimation| FR2989797B1|2012-04-24|2014-12-26|Kalray|Reduction de la consommation electrique d'une matrice de processeurs| US9037669B2|2012-08-09|2015-05-19|International Business Machines Corporation|Remote processing and memory utilization| US10152450B2|2012-08-09|2018-12-11|International Business Machines Corporation|Remote processing and memory utilization| US8982878B1|2013-02-15|2015-03-17|Sprint Communications Company L.P.|Centralized circuit switch provisioning system| EP2992393B1|2013-04-29|2019-09-11|Essilor International|Calculation system for manufacturing an ophthalmic lens| US10169051B2|2013-12-05|2019-01-01|Blue Yonder GmbH|Data processing device, processor core array and method for characterizing behavior of equipment under observation| EP2881820A1|2013-12-05|2015-06-10|Blue Yonder GmbH|Data processing device and method for characterizing behavior of equipment under observation| US9646081B1|2014-06-30|2017-05-09|Open Text Corporation|System and method to present a summarized task view in a case management system| US10210020B2|2016-06-29|2019-02-19|International Business Machines Corporation|Scheduling requests in an execution environment| CN106547707B|2016-09-21|2019-03-05|西安邮电大学|阵列处理器中簇内存储并行访问局部优先交换电路| US10084805B2|2017-02-20|2018-09-25|Sas Institute Inc.|Computer system to identify anomalies based on computer-generated results| WO2019025864A2|2017-07-30|2019-02-07|Sity Elad|A memory-based distributed processor architecture| US10707875B1|2019-05-10|2020-07-07|Achronix Semiconductor Corporation|Reconfigurable programmable integrated circuit with on-chip network|
法律状态:
2011-12-13| A621| Written request for application examination|Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111212 | 2013-02-22| A521| Written amendment|Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130221 | 2013-05-10| A521| Written amendment|Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130418 | 2013-05-29| A072| Dismissal of procedure [no reply to invitation to correct request for examination]|Free format text: JAPANESE INTERMEDIATE CODE: A072 Effective date: 20130528 | 2013-09-26| A977| Report on retrieval|Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130926 | 2013-10-09| A131| Notification of reasons for refusal|Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131008 | 2014-01-09| A601| Written request for extension of time|Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20140108 | 2014-02-08| A601| Written request for extension of time|Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20140207 | 2014-03-11| A601| Written request for extension of time|Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20140310 | 2014-04-03| A521| Written amendment|Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140314 | 2014-04-09| A521| Written amendment|Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140408 | 2014-04-29| A521| Written amendment|Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140410 | 2014-05-27| A521| Written amendment|Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140508 | 2014-06-03| A602| Written permission of extension of time|Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140131 Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140401 Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140303 | 2014-07-02| A02| Decision of refusal|Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140701 | 2014-11-05| A521| Written amendment|Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141104 | 2015-02-10| A911| Transfer to examiner for re-examination before appeal (zenchi)|Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20150209 | 2015-05-07| A912| Re-examination (zenchi) completed and case transferred to appeal board|Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20150501 | 2016-02-15| A601| Written request for extension of time|Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20160215 | 2016-03-16| A521| Written amendment|Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160316 | 2016-09-01| A61| First payment of annual fees (during grant procedure)|Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160824 | 2016-12-02| R150| Certificate of patent or registration of utility model|Ref document number: 6047747 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 | 2019-12-10| R250| Receipt of annual fees|Free format text: JAPANESE INTERMEDIATE CODE: R250 | 2020-12-03| R250| Receipt of annual fees|Free format text: JAPANESE INTERMEDIATE CODE: R250 | 2021-12-03| R250| Receipt of annual fees|Free format text: JAPANESE INTERMEDIATE CODE: R250 |
优先权:
[返回顶部]
申请号 | 申请日 | 专利标题 相关专利
Sulfonates, polymers, resist compositions and patterning process
Washing machine
Washing machine
Device for fixture finishing and tension adjusting of membrane
Structure for Equipping Band in a Plane Cathode Ray Tube
Process for preparation of 7 alpha-carboxyl 9, 11-epoxy steroids and intermediates useful therein an
国家/地区
|